• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

The onset of detonation downstream of perforated plates

Grondin, Jean-Sébastien January 2011 (has links)
In the present research, the onset of detonation downstream of a perforated plate subsequent to the reflection of a Chapman-Jouguet (CJ) detonation upstream was investigated. Single-frame schlieren photography was used together with pressure and velocity measurements to examine the phenomena in detail. Experiments were performed with two different mixtures: C2H2 + 2.5O2 + 70%Ar and C3H8 + 5O2. The former is known to have a piecewise laminar structure with a regular cellular structure while the latter has a much more irregular transverse wave pattern. Upon reflection of the CJ detonation upstream, a turbulent reaction front propagates downstream at a quasi-steady velocity which corresponds to about the sound speed of the detonation products and half the CJ detonation velocity. There is found to be a critical value of the initial pressure in which the detonation is re-initiated downstream of the perforated plate. Below the critical initial pressure, the quasi-steady reaction front decays into a deflagration after a certain period of propagation. For the high argon diluted mixtures, the onset of detonation is found to always occur in the vicinity downstream of the perforated plate, when the turbulence generated by the plate has not yet decayed. In contrast, for the propane-oxygen mixtures at critical condition, the quasi-steady reaction front is found to propagate for relatively long distances from the plate prior to the onset of detonation. Thus it is concluded that high argon diluted mixtures may not be able to self-generate the critical conditions that are required for the transition to detonation. / Dans cette recherche, des détonations Chapman-Jouguet (CJ) sont réfléchies par une plaque perforée afin d'étudier le phénomène de la formation des détonations en aval. Pour ce faire, la photographie schlieren ultra-rapide est utilisée et combinée à des mesures de pressions et de vitesses. Les expériences sont réalisées avec deux mixtures explosives différentes: C2H2 + 2.5O2 + 70%Ar et C3H8 + 5O2. La première est connue pour avoir une structure cellulaire laminaire et régulière, tandis que la seconde possède un tracé cellulaire bien plus irrégulier. Lorsque la détonation CJ est réfléchie par la plaque en amont, une zone de réaction turbulente est propagée enaval à une vitesse plus ou moins constante correspondant à la vitesse du son dans les produits de détonation ainsi qu'à environ la moitié de la vitesse CJ de détonation. Cette étude démontre qu'il existe une valeur critique de la pression initiale pour laquelle la détonation est ré-initiée en aval de la plaque perforée. Sous cette pression critique, la zone de réaction turbulente décroît en une déflagration après une certaine période de propagation. Pour la mixture diluée d'argon, la formation de la détonation se fait toujours à proximité de la plaque, avant que la turbulence générée par la plaquene se soit complètement dissipée. Pour les mixtures de propane-oxygène à pression critique, il apparaît que la zone de réaction turbulente peut se propager sur une distance relativement longue avant que la formation de la détonation débute. Cette recherche démontre donc que les mixtures hautement diluées d'argon pourraient ne pas être en mesure de générer par elles-mêmes les conditions critiques requises pour la transition en une détonation.
122

Yobal: Locality-aware multicast engine for a massively multiplayer game architecture

Pheng, Chhunry January 2010 (has links)
Massively multiplayer online games have gained such momentum throughout the years that their consumer base has exploded. Being mainly built on a client-server architecture, the server becomes the bottleneck, causing scalability problem. To alleviate this, peer-to-peer structures have been exploited in the game context. In this thesis, we have developed a peer-to-peer based Network Engine of the Mammoth game research framework.Based on pSense [ASB08], this network layer is flexible enough such that it can be run on different transport protocols. The idea is that players send their game changes directly to other players that are close to them in the game world without going through a server. As clients move, they detect other players with the help of gossiping. Special sensor nodes suggest them to build connections to new players. Through these message exchanges, each client node creates and updates the list of peers interested in their movements. Since clients constantly move around, this overlay maintenance is highly dynamic. A Suggestion Engine is built to perform this overlay maintenance. Experiments are designed to analyse and compare the performance of the network engine when running on top of two different transport protocols: UDP/IP and TCP/IP. / Les jeux en ligne massivement multijoueur ont gagné une si grande popularité au cours des dernières années que leur nombre de consommateurs a explosé. Généralement conçu pour une architecture client-serveur, celui-ci subi une faiblesse au niveau de leur extensibilité, car un goulot d'étranglement se forme normalement du côté du serveur. Afin de régler ce problème, les architectures poste-à-poste ont été adopté et intégré dans les contextes de jeu. Pour cette thèse, nous avons développé un moteur de réseaux (Network Engine) conçu pour une architecture poste-à-poste pour Mammoth, qui est un logiciel intégré pour la recherche des jeux en ligne massivement multi-joueurs. Basé sur pSense [ASB08], notre couche de réseau est assez flexible afin qu'il puisse supporter différents protocoles de transport. Les noeuds clients se découvrent entre eux part l'intermédiaire d'une troisime entité. Cette dernière émet des messages de suggestions afin d'établir des connections entre les noeuds clients. Grâce aux messages communiqués, les noeuds clients créent et fait un mise à jour de leur liste de noeuds homologues intéressés par leurs mouvements. Vu que les clients bougent constamment dans le jeu, cette structure de réseau doit tre très dynamique. Un moteur de suggestion (Suggestion Engine) est créé pour faire la maintenance de la structure. Une suite d'expériences ont été développées afin d'analyser et de comparer la performance du moteur de réseau lorsqu'il est exécuté avec deux différents protocoles de transport : UDP/IP et TCP/IP.
123

Adaptive control of epileptic seizures using reinforcement learning

Guez, Arthur January 2010 (has links)
This thesis presents a new methodology for automatically learning an optimal neurostimulation strategy for the treatment of epilepsy. The technical challenge is to automatically modulate neurostimulation parameters, as a function of the observed field potential recording, so as to minimize the frequency and duration of seizures. The methodology leverages recent techniques from the machine learning literature, in particular the reinforcement learning paradigm, to formalize this optimization problem. We present an algorithm which is able to learn an adaptive neurostimulation strategy directly from labeled training data acquired from animal brain tissues. Our results suggest that this methodology can be used to automatically find a stimulation strategy which effectively reduces the incidence of seizures, while also minimizing the amount of stimulation applied. This work highlights the crucial role that modern machine learning techniques can play in the optimization of treatment strategies for patients with chronic disorders such as epilepsy. / Cette thèse présente une nouvelle méthodologie pour apprendre, de façon automatique, une stratégie optimale de neurostimulation pour le traitement de l'épilepsie. Le défi technique est de moduler automatiquement les paramètres de stimulation, en fonction de l'enregistrement de potentiel de champ observé, afin de minimiser la fréquence et la durée des crises d'épilepsie. Cette méthodologie fait appel à des techniques récentes développées dans le domaine de l'apprentissage machine, en particulier le paradigme d'apprentissage par renforcement, pour formaliser ce problème d'optimisation. Nous présentons un algorithme qui est capable d'apprendre une stratégie adaptative de neurostimulation, et ce directement à partir de données d'apprentissage, étiquetées, acquises depuis des tissus de cerveaux d'animaux. Nos résultats suggèrent que cette méthodologie peut être utiliser pour trouver, automatiquement, une stratégie de stimulation qui réduit efficacement l'indicence des crises d'épilepsie tout en minimisant le nombre de stimulations appliquées. Ce travail met en évidence le rôle crucial que les techniques modernes d'apprentissage machine peuvent jouer dans l'optimisation de stratégies de traitements pour des patients souffrant de maladies chroniques telle l'épilepsie.
124

Assessment of Pyrolysis techniques of lignocellulosic biomass for Biochar production

Dutta, Baishali January 2010 (has links)
Biomass pyrolysis at temperatures above 300°C, with the biochar being returned to the soil is a possible strategy for climate change mitigation and reducing fossil fuel consumption. In this study, an attempt has been made to develop a finite element model (FEM) in order to couple thermal heating and heat and mass transfer phenomena during pyrolysis. This numerical modelling and simulation approach helped the visualization of the process and optimized the production of biochar. In this work, cylindrical sections of birch wood biomass were pyrolysed in a laboratory-scale thermal desorption unit. The influences of final pyrolysis temperature, heating rate, and pyrolysis atmosphere on the product yields were investigated. Results showed that the yield of pyrolysis products was reduced with increasing time and temperature. On the other hand, the char content in the wood increased together with increasing pyrolysis temperature as well as time for both slow and fast pyrolysis. A technique to maximize the amount of char in the product was also identified through this study and optimized along with the yield. The resulting biochar was tested through proximate analysis and differential scanning calorimetry to determine its thermodynamic qualities, which were analysed and compared according to their physical characteristics like porosity and reflectance. / La pyrolyse de biomasse à des températures excédant 300°C, suivi d'un retour au sol du produit de carbonisation de matériel biologique, s'avère une stratégie permettant de possiblement atténuer le changement climatique et réduire la consommation de combustibles fossiles. Dans la présente étude, nous tentâmes de créer un modèle d'éléments finis (MEF) permettant de coupler le réchauffement thermique et les phénomènes de transfert de chaleur et de masse opérant durant la pyrolyse. Cette démarche de modélisation et simulation numérique améliora notre habilité à visualiser le procédé et à optimiser la production de biochar. Des sections cylindriques de biomasse de bois de bouleau furent soumises à une pyrolyse dans un désorbeur thermique de laboratoire. L'influence de la température finale de pyrolyse, la vitesse d'élévation de température, et l'atmosphère de pyrolyse fut investiguée. Les résultants démontrèrent que tandis que le rendement en produits de pyrolyse diminua avec une augmentation de la température et du temps de la pyrolyse, le contenu en charbon du bois augmenta avec une augmentation ces paramètres, tout autant pour une pyrolyse lente qu'une pyrolyse rapide. A travers cette démarche, nous identifiâmes une technique permettant de maximiser la quantité de charbon dans les produits de pyrolyse ainsi que le rendement global du procédé. Le biochar ainsi généré fut testé par analyse immédiate et analyse calorimétrique à compensation de puissance afin de déterminer ses propriétés thermodynamiques, qui furent analysées et comparées selon les caractéristiques physiques des différents biochars, soit leur porosité et leur réflectance. fr
125

An integrative bioinformatics approach for developing predictors of recurrence for the triple negative and basal subtypes of breast cancer

Shahalizadeh Kalkhoran, Solmaz January 2011 (has links)
The triple-negative (TN) and basal-like breast cancers have poor outcomes, and lack both targeted therapies and accurate prognostic markers of outcome. Despite the application of microarray technologies to molecular profiling of breast tumors, most current genomics-derived predictors are incapable of stratifying TN or basal breast cancer patients by outcome. We have collected all publicly available breast cancer gene expression datasets to build a human-Compendium; from this, we selected TN and basal patient cohorts to build a TN-Compendium (TN-C) and basal-Compendium (basal-C). Using a de novo machine learning methodology, we have built 25-gene predictors of recurrence for TN and basal patients. Compared to previously reported predictors, these classifiers exhibit superior performance, and highlight multiple biological processes, including immune response, cytoskeletal regulation, signaling and ligand gated ion channels, as being differentially present between recurrent and non-recurrent patients. The small size of these predictors makes them potential candidates for use in clinical settings. / Le Cancer du sein triple négatif (TN) ou basal-like ont de mauvais résultats, et manque les thérapies ciblées et précises marqueurs pronostiques du résultat. Malgré l'application des technologies des biopuces pour le profilage moléculaire des tumeurs du sein, la plus récente des prédicteurs de génomique provenant sont incapables de stratification TN ou basale cancer du sein par résultat. Nous avons rassemblé tous les ensembles de données accessible au public du cancer du sein par l'expression des gènes pour construire un homme-Compendium; de cela, nous avons sélectionné AMT et à la base des cohortes de patients pour construire un TN-Compendium (TN-C) et basal-Compendium (basal-C). En utilisant une machine de novo méthodologie d'apprentissage, nous avons construit des prédicteurs 25-gène de récidive pour les TN et les patients de la base. Par rapport à des prédicteurs signalés précédemment, la performance exposer ces classificateurs supérieure, et mettre en évidence plusieurs processus biologiques, y compris la réponse immunitaire, la régulation du cytosquelette, signalisation et canaux ioniques ligand, comme étant présents de façon différentielle entre les patients récurrents et non récurrents. La petite taille de ces prédicteurs en fait des candidats potentiels pour une utilisation en milieu clinique.
126

Approximate inference in probabilistic relational models

Kaelin, Fabian January 2012 (has links)
Probabilistic Relational Models (PRMs) are a type of directed graphical model used in the setting of statistical relational learning. PRMs are an extension to Bayesian networks, a popular model which assumes independence between observations. A PRM aims to exploit the logical structure that is often present between observations. We present two approximate inference methods for PRMs. First, we propose an algorithm based on Gibbs sampling that makes use of the relational structure for fast and scalable inference. We then consider PRMs with reference uncertainty, which are models that contain uncertainty about the relational structure itself. We propose an inference method based on a Metropolis-Hasting algorithm which depends on a sparse data structure that decreases the model complexity. Finally we present a software framework called ProbReM that can be used to model and perform inference on PRMs. / Les modèles probabiliste relationel (MPRs) sont un type de modèle graphique utilisés dans le cadre de l'apprentissage relationnelle. Les MPR sont une extension des réseaux Bayésiens, soit un modèle aprécié qui suppose l'indépendance entre les observations. Un MPR vise à exploiter la structure logique qui est souvent présente entre les observations. Nous présentons deux méthodes d'inférence approximative pour les MPR. Premièrement, nous proposons un algorithme basé sur l'échantillonnage de Gibbs qui fait usage de la structure relationnelle pour l'inférence rapide et évolutif. Nous considerons ensuite les MPR à l'incertitude de référence, qui sont des modèles qui contiennent des incertitudes au sujet de la structure relationnelle elle-même. Nous proposons une méthode d'inférence basée sur un algorithme de Metropolis-Hasting, qui repose sur une structure de données éparses qui diminue la complexité du modèle. Enfin, nous présentons un logiciel appelé ProbReM qui peut être utilisé pour modeler et faire de l'inférence sur les MPR.
127

Lattice preconditioning for the real relaxation based branch and bound method for integer least squares problems

Ku, Wen-Yang January 2012 (has links)
Lattice basis reduction is a powerful tool for solving complex problems both in pure mathematics and practical applications. In this thesis, we use lattice basis reduction as a preconditioning technique to accelerate the real relaxation based branch and bound (RRBB) method for solving integer least squares (ILS) problems. We give theoretical arguments and simulation results to show that applying lattice preconditioning to the RRBB method can greatly reduce the size of the RRBB tree for ordinary ILS problems, making the method more efficient. We then propose new reduction strategies, which are more effective than some typical existing reduction strategies for lattice preconditioning. Finally we extend the preconditioning techniques to the RRBB method for box-constrained and more general linear-inequality constrained ILS problems. Numerical test results indicate lattice preconditioning is also very effective to reduce the computation time of the RRBB method for these constrained problems. / Les techniques de réduction de réseaux est un outil puissant pour résoudre des problèmes complexes tant en mathématiques pures et les applications pratiques. Dans cette thèse, nous utilisons reduction de réseaux comme une technique de préconditionnement pour accélérer la branche réelle détente et de base lié (RRBB) méthode pour résoudre les problèmes de moindres carrés en nombres entiers (ILS). Nous donnons des arguments théoriques et des résultats de simulation pour montrerque l'application de treillis de préconditionnement de la méthode RRBB peut réduire considérablement la taille de l'arbre RRBB pour des problèmes ILS ordinaires, cequi rend la méthode plus efficace. Nous proposons ensuite de nouvelles stratégies de réduction, qui sont plus efficaces que certaines stratégies de réduction de type existants pour le préconditionnement treillis. Enfin nous étendons les techniques de préconditionnement de la méthode RRBB pour la contrainte des boîtes et des contraintes linéaires-inégalité plus générales des problémes ILS. Les résultats des simulations numériques indiquent que le préconditionnement treillis est également très efficace pour réduire le temps de calcul de la méthode RRBB pour ces problèmes contraints.
128

The algebra of topological quantum computing

Evans, Julia January 2012 (has links)
Topological quantum computing is an approach to the problem of implementingquantum gates accurately and robustly. The idea is to exploit topological propertiesof certain quasiparticles called anyons to obtain a proposed implementation of quan-tum computing which is inherently fault-tolerant. The mathematical structure thatdescribes anyons is that of modular tensor categories. These modular tensor cate-gories can be constructed from the representations of certain algebraic objects calledquantum groups. In this thesis we give an explanation of modular tensor categoriesand quantum groups as they relate to topological quantum computing. It is intendedthat it can be read with some basic knowledge of algebra and category theory. Thehope is to give a concrete account accessible to computer scientists of the theory ofmodular tensor categories obtained from quantum groups. The emphasis is on thecategory theoretic and algebraic point of view rather than on the physical point ofview. / Le calcul quantique topologique est une approche au problème d'implementationde circuits quantique d'une façon robuste et precisé. L'idée s'agit d'exploiter certaines propriétés de quasiparticules, dites "anyons", pour obtenir une implémentation du calcul quantique qui est intrinsequement tolerante aux pannes. La structure mathématique qui décrit ces anyons est celle des catégories modulaires. Ces objets peuvent être construites à partir de représentations de certaines algèbres, appelées groupes quantiques. Dans ce mémoire, nous donnerons une exposition des catégories modulaires, des groupes quantiques et du lien qu'ils partagent avec le calcul quantique. Le mémoire ne devrait requérir qu'une connaissance de base en algèbre et en théorie des categories. L'espoir étant de donner un model concret pour les informaticiens de la théorie de catégories obtenus à partir de groupes quantiques. L'emphase sera sur le point de vu algèbrique et catégorique plutôt que celui physique.
129

Taming Matlab

Dubrau, Anton January 2012 (has links)
MATLAB is a dynamic scientific language used by scientists, engineers and students worldwide. Although MATLAB is very suitable for rapid prototyping and development, MATLAB users often want to convert their final MATLAB programs to a static language such as FORTRAN, to integrate them into already existing programs of that language, to leverage the performance of powerful static compilers, or to ease the distribution of executables. This thesis presents an extensible object-oriented toolkit to help facilitate the generation of static programs from dynamic MATLAB programs. Our open source toolkit, called the MATLAB Tamer, targets a large subset of MATLAB. Given information about the entry point of the program, the MATLAB Tamer builds a complete callgraph, transforms every function into a reduced intermediate representation, and provides typing information to aid the generation of static code. In order to provide this functionality, we need to handle a large number of MATLAB builtin functions. Part of the Tamer framework is the builtin framework, an extensible toolkit which provides a principled approach to handle a large number of builtin functions. To build the callgraph, we provide an interprocedural analysis framework, which can be used to implement full-program analyses. Using this interprocedural framework, we have developed value analysis, an extensible interprocedural analysis to estimate MATLAB types, which helps discover the call edges needed to build the call graph. In order to make the static analyses even possible, we disallow a small number of MATLAB constructs and features, but attempt to support as large a subset of MATLAB as possible. Thus, by both slightly restricting MATLAB, and by providing a framework with powerful analyses and simplifying transformations, we can "Tame MATLAB". / MATLAB est un langage scientifique utilisé par des ingénieurs, scientifiques, et étudiants à travers le monde. Bien que MATLAB soit très approprié pour les prototypages et les développements rapides, les usagers veulent souvent convertir leurs programmes MATLAB finaux vers un langage statique tel FORTRAN, dans le but de les intégrer à des programmes existants dans ce langage, de tirer avantage des performances des compilateurs statiques plus puissants, ou de faciliter la distribution des fichiers exécutables. Cette thèse présente un toolkit extensible orienté objet pour faciliter la production de programmes statiques à partir de programmes MATLAB dynamiques. Notre toolkit à code source libre, appelé MATLAB Tamer («dompteur MATLAB »), vise un large sous-ensemble de MATLAB. À partir d'informations sur le point d'entrée du programme, le MATLAB Tamer construit un graphe d'appels complet, transforme chaque fonction en une représentation réduite intermédiaire et fournit l'information sur le typage pour faciliter la production du code statique. Pour fournir cette fonctionnalité, nous devons manipuler une grand nombre de fonctions MATLAB intégrées. Une partie du cadre du Tamer est le cadre intégré, un toolkit extensible fournissant une approche de principe pour manipuler un grand nombre de fonctions intégrées. Pour construire le graphe d'appels, nous fournissons un cadre d'analyse interprocédural pouvant être utilisé pour implanter des analyses de programmes complets. En utilisant ce cadre inter-procédural, nous avons développé l'analyse des valeurs, une analyse inter-procédurale extensible pour estimer les types MATLAB, pour aider à découvrir les arrêtes d'appels nécessaires pour construire le graphe d'appels. Pour pouvoir rendre faisable une analyse statique, nous interdisons un petit nombre de concepts et caractéristiques de MATLAB, mais nous tentons de supporter un sous-ensemble de MATLAB aussi grand que possible. Conséquemment, en restreignant légèrement MATLAB, en fournissant un puissant cadre d'analyse et en simplifiant les transformations, nous pouvons «dompter MATLAB».
130

Succes rates of estimators of integer parameters in box- constrained linear models

Hanssian, Sevan January 2012 (has links)
In some applied areas such as the Global Positioning System (GPS) and communications, etc., there is a linear model y = Ax + v, where the unknown parameter vector x is an integer vector and the noise vector v follows a normal distribution N(0, sigma^2 I). The typical methods for estimating x are the integer rounding (IR), the Babai nearest plane (BNP), and the integer least squares (ILS) methods. While IR and BNP are polynomial-time methods, the ILS method solves an NP-hard problem. The most effective approach to validating an integer estimator is to find its success rate, which is the probability of correct integer estimation. It has been found in the literature that the ILS estimator is optimal among all admissible integer estimators, including the IR and BNP estimators, as it maximizes the success rate. In communications applications, the integer parameter vector x is often constrained to a box. In this thesis, we first extend the concept of success rates to box-constrained versions of IR (BIR), BNP (BBNP), and ILS (BILS). We then extend some results for the success rates of the corresponding unconstrained estimators to these box-constrained estimators. In addition, we apply the success rate results to improve the efficiency of the BILS estimation process. If some entries of the integer estimator obtained by BBNP have high success rates, then we can fix these entries and solve a smaller BILS problem. This may reduce the overall computational time. Numerical simulations results are presented to support our findings. / Dans certains domaines appliqués comme la navigation utilisant le système mondial de positionnement (GPS) et comme les communications, il y a un modèle linéaire, y = Ax+v, où x est un vecteur de paramètres entiers à estimer et v est un vecteur contenant le bruit et suivant une loi normale N(0, sigma^2 I). Les méthodes typiques pour estimer x sont l'algorithme d'arrondissement à l'entier le plus proche (IR), l'algorithme de l'hyperplan le plus proche de Babai (BNP) et l'algorithme des moindres carrés en nombres entiers (ILS). Tandis que les algorithmes IR et BNP sont polynomiaux, la méthode ILS résout un problème NP-difficile. L'approche la plus efficace pour valider un estimateur entier est de trouver son taux de réussite, qui est la probabilité de trouver la bonne estimation pour le vecteur de paramètres. Dans la littérature, il s'avère que l'estimateur ILS est optimal parmi les estimateurs admissibles, y compris les estimateurs IR et BNP, car il maximise le taux de réussite. Dans les applications de communication, le vecteur de paramètres est souvent contraint à une boîte. Dans cette thèse, nous développons le concept de taux de réussite pour les méthodes d'estimation avec contraintes de boîtes (les méthodes BIR, BBNP et BILS). Nous présentons aussi quelques résultats pour les taux de réussite de ces estimateurs contraints à boîtes. De plus, nous appliquons ces résultats afin d'améliorer l'efficacité de l'algorithme BILS. Si certaines entrées du vecteur obtenu par BILS ont des taux de réussite élevés, nous pouvons les utiliser et résoudre un problème BILS de dimensions réduites. Cela peut réduire le temps de calcul. Des résultats de simulations sont présentés à l'appui de nos conclusions.

Page generated in 0.0609 seconds