• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Development of an expert system for the identification of bacteria by focal plane array Fourier transform infrared spectroscopy

Ghetler, Andrew January 2010 (has links)
This study presents new techniques for the analysis of data acquired by focal plane array Fourier transform infrared (FPA-FTIR) spectroscopy. FPA-FTIR spectrometers are capable of acquiring several orders of magnitude more data than conventional FTIR spectrometers, necessitating the use of novel data analysis techniques to exploit the information-rich nature of these infrared imaging systems. The techniques investigated in this study are demonstrated in the context of bacteria identification by FPA-FTIR spectroscopy. Initially, an examination is made of the image fidelity of three FPA-FTIR instruments and demonstrates the high degree of within-image and between-image variability that is encountered with this technology. This is followed by a description of the development of pixel filtration routines that allow for the extraction of the most representative data from the infrared images of non-uniform samples. A genetic algorithm (GA) approach is introduced for determining the relevancy of spectral features in relation to bacterial classification and is compared to other forms of classifier optimizations. A proof-of-concept study demonstrating the potential use of infrared imaging to detect bacterial samples originating from a mixed culture is then presented. Finally, an overall methodology involving the combination of these data analysis techniques and including additional approaches towards the development, maintenance, and validation of databases based on infrared imaging data is described. This methodology has been developed with an emphasis on accessibility by implementing the elements of an expert system which allows for this technology to be employed by a non-technical user. / Cette étude présente une nouvelle approche d'analyse de données spectrales résultant de l'utilisation de la spectroscopie infrarouge à transformée de Fourier couplée à un détecteur type «matrice à plan focal» (FPA-FTIR) à balayage rapide. Les spectromètres FPA-FTIR ont une capacité de capture de données de plusieurs ordres de grandeur supérieurs aux spectromètres traditionnels et nécessitent donc des techniques avancées d'analyse de données pour exploiter cette mine d'information que représente l'imagerie infrarouge. La spectroscopie FPA-FTIR a été utilisée dans cette étude pour l'identification des bactéries. L'étape initiale, celle de la comparaison de trois spectromètres FPA-FTIR sur les points de vue fidélité de l'image, tant image-image qu'entre images, a révélé de grandes variabilités qui sont propres à cette technologie. Cette étape est suivie du développement de routines de filtration de pixels permettant d'extraire les données caractéristiques de l'imagerie infrarouge des échantillons non-uniformes. Un algorithme génétique (GA) est ensuite introduit pour déterminer la pertinence des caractéristiques spectrales sur le plan de la classification bactérienne et a été comparé à d'autres formes de classification optimisée. Une étude de démonstration de la capacité de la technologie d'imagerie infrarouge pour la détection des échantillons de bactéries provenant de cultures mixtes s'en est suivie. Pour terminer, une méthodologie globale combinant ces techniques d'analyse de données et incluant d'autres étapes telles le développement, la mise à niveau et la validation des bases de données d'imagerie infrarouge a été présentée. Cette méthodologie met l'emphase sur le développement et l'implantation d'un système expert accessible d'utilisation à de non-experts.
272

Designing a context dependant movie recommender: a hierarchical Bayesian approach

Pomerantz, Daniel January 2010 (has links)
In this thesis, we analyze a context-dependent movie recommendation system using a Hierarchical Bayesian Network. Unlike most other recommender systems which either do not consider context or do so using collaborative filtering, our approach is content-based. This allows users to individually interpret contexts or invent their own contexts and continue to get good recommendations. By using a Hierarchical Bayesian Network, we can provide context recommendations when users have only provided a small amount of information about their preferences per context. At the same time, our model has enough degrees of freedom to handle users with different preferences in different contexts. We show on a real data set that using a Bayesian Network to model contexts reduces the error on cross-validation over models that do not link contexts together or ignore context altogether. / Dans cette thèse, nous analysons un système de recommandations de films dépendant du contexte en utilisant un réseau Bayésien hiérarchique. Contrairement à la plupart des systèmes de recommendations qui, soit ne considère pas le contexte, soit le considère en utilisant le filtrage collaboratif, notre approche est basée sur le contenu. Ceci permet aux utilisateurs d'interpréter les contextes individuellement ou d'inventer leurs propres contextes tout en obtenant toujours de bonnes recommandations. En utilisant le rèseau Bayésien hiérarchique, nous pouvons fournir des recommendations en contexte quand les utilisateurs n'ont fourni que quelques informations par rapport à leurs préférences dans différents contextes. De plus, notre modèle a assez de degrés de liberté pour prendre en charge les utilisateurs avec des préférences différentes dans différents contextes. Nous démontrons sur un ensemble de données réel que l'utilisation d'un réseau Bayésien pour modéliser les contextes réduit l'erreur de validation croisée par rapport aux modèles qui ne lient pas les contextes ensemble ou qui ignore tout simplement le contexte.
273

Privacy-preserving personal information management

Layouni, Mohamed January 2010 (has links)
The spread of Information and Communication Technologies (ICTs) has transformed the way we deliver services, and has made them in general more efficient and more accessible to users. With these improvements however came new challenges. The extensive use of electronic services in our daily life, and the massive gathering of transactional data have led to serious privacy violations. / In this thesis we provide techniques to enhance users' privacy, and to give them greater control over their data. We propose a protocol allowing users to authorize access to their remotely-stored records, according to a self-chosen privacy policy, and without the storage server learning the access pattern to their records, or the index of the queried records. This prevents the storage server from linking the identity of the party retrieving a record to that of the record owner. In many applications, the association between the identity of the record retriever and that of the record owner represents sensitive information, and needs to be kept private. The proposed protocol is called Accredited Symmetrically Private Information Retrieval (ASPIR), and uses Brands's Anonymous Credentials [Bra00] and a Symmetrically Private Information Retrieval (SPIR) scheme by Lipmaa [Lip05], as building blocks. / Next, we extend the above ASPIR protocol to a setting where the stored records belong to multiple owners simultaneously. The new protocol, called Multi-Authorizer ASPIR, allows the owners of a record to authorize access to their data according to a self-chosen privacy policy, without the storage server learning the access pattern to their record. We present constructions for settings where the retrieving party has to provide authorizations either from all the owners of the target record, or from a subset of them of size greater that a certain threshold. We also consider the case of a General Access Structure, where the retrieval is allowed only if authorizations from certain pre-defined subsets of the owners are provided. The Multi-authorizer ASPIR protocol is more efficient than ASPIR, and can be built with any SPIR primitive. / Finally, we dedicate the last part of the thesis to applying privacy preserving techniques to a real world problem. In particular, we consider the area of e-health, and provide a privacy-preserving protocol for handling prescriptions in the Belgian healthcare system. / La prolifération des services électroniques a eu des retombées positives sur nos sociétés. Les technologies de l'information ont révolutionné divers domaines clé de notre vie, notamment les services gouvernementaux, les affaires, la santé, les transports, les communications et l'éducation. Souvent, le passage au numérique, a rendu les services plus accessibles, plus rapides, plus faciles à utiliser et socialement plus inclusifs. Cependant, avec ces améliorations sont apparus aussi de nouveaux problèmes. En effet, l'utilisation des services électroniques au quotidien, et la collecte massives de données transactionnelles sur les utilisateurs, ont conduit à l'établissement de ce qu'on appelle communément les "dossiers électroniques". Un dossier électronique est une compilation de données personnelles récoltées lorsqu'un individu effectue des transactions électroniques ou reçoit des services. Ces dossiers sont de plus en plus utilisés par le gouvernement et les corporations pour prendre des décisions importantes sur les individus, sans que ces derniers ne soient capables d'y participer. / Cette thèse présente des techniques pour protéger davantage la vie privée des citoyens et leur donner plus de contrôle sur leurs données. On propose, entre autres, un protocole pour permettre à des utilisateurs d'autoriser l'accès à leurs données, sauvegardées sur un serveur distant, sans que celui-ci n'apprenne d'informations sur la fréquence et la distribution des accès, ou même sur l'indice des données récupérées. Ceci empêche le serveur d'établir des liens entre l'identité d'un propriétaire de données, et celle de l'agent qui a demandé l'accès à ses données. On peut penser à une multitude de scénarios où la divulgation de l'existence d'un tel lien est non souhaitable. Le protocole qu'on propose est nommé ASPIR de l'Anglais (Accredited Symmetrically Private Information Retrieval), et utilise les systèmes de certification de Brands [Bra00], ainsi que le système SPIR de Lipmaa [Lip05]. / Dans un deuxième temps, on généralise le protocole ASPIR initial à un environnement où les entrées appartiennent à plusieurs parties. Le nouveau protocole, nommé Multi-Authorizer ASPIR, permet aux propriétaires d'autoriser l'accès à leurs données selon une politique qu'ils ont eux même choisie, et sans que le serveur n'apprenne des informations sur la fréquence et la distribution des accès. On présente des constructions pour des scénarios où le demandeur de données doit fournir une autorisation de la part de tous les (respectivement une partie des) propriétaires. Le protocole, Multi-authorizer ASPIR, est plus performant, et peut être implanté avec n'importe quel système SPIR. / Enfin, la dernière partie de la thèse est dédiée à l'application des techniques de protection de la vie privée à un exemple concret de la vie courante. L'exemple qu'on traite appartient au domaine de la santé. On présente alors un protocole pour gérer les ordonnances médicales, qui est compatible avec le système de santé Belge. Le protocole proposé préserve la vie privée des patients et des médecins.
274

A numerical study of a double pipe latent heat thermal energy storage system

Tabassum, Tonny January 2010 (has links)
Solar energy is an intermittent supply source of energy. To efficiently utilize this free renewable energy source some form of thermal energy storage devices are necessary. Phase change materials (PCMs), because of their high energy density storage capacity and near isothermal phase change characteristics, have proven to be promising candidates for latent heat thermal energy storage (LHTES) devices. Among the various LHTES devices for low temperature residential heating and cooling applications, the shell-and-tube type heat exchanging devices are the most simple to operate and can be easily fabricated. This work numerically investigates the buoyancy driven heat transfer process during melting (charging) of a commercial paraffin wax as PCM filling the annulus of a horizontal double pipe heat exchanger. The heated working fluid (water) is passing through the central tube of the annulus at a sufficiently high flow-rate and thereby maintaining an almost isothermal wall temperature at the inner pipe which is higher than the melting temperature of the PCM. The transient, two-dimensional coupled laminar momentum and energy equations for the model are suitably non-dimensionalized and are solved numerically using the enthalpy-porosity approach. Time-wise evolutions of the flow patterns and temperature distributions are presented through velocity vector fields and isotherm plots. In this study, two types of PCM filled annuli, a plain annulus and a strategically placed longitudinal finned annulus, are studied. The total energy stored, the total liquid fraction and the energy efficiency at different melting times are evaluated for three different operating conditions and the results are compared between the plain and finned annuli. The present study will provide guidelines for system thermal performance and design optimization of the shell-and-tube LHTES devices. / L'énergie solaire est une source d'alimentation d'énergie intermittente. Pour utiliser efficacement cette source gratuite d'énergie renouvelable, une certaine forme de dispositifs de stockage d'énergie thermique est nécessaire. Les matériaux à changement de phase (PCMs) en raison de leur capacité d'énergie à haute densité de stockage et les caractéristiques quasi isothermes de changement de phase se sont révélés être des candidats prometteurs pour les dispositifs de stockage de la chaleur latente de l'énergie thermique (LHTES). Parmi les différents dispositifs LHTES pour le chauffage résidentiel à basse température et les utilisations possibles comme refroidissant, les dispositifs d'échange de chaleur du type à tubes et calandre et les dispositifs de type à tubes sont les plus simples à faire fonctionner et peuvent être facilement fabriqués. Ce travail étudie numériquement le processus de flottabilité piloté par le transfert de chaleur lors de la fusion (stockage de la chaleur) d'une cire de paraffine commerciale utilisée comme PCM remplissant l'espace annulaire d'un échangeur de chaleur horizontal à double conduit. Le fluide chauffé (de l'eau) faisant action passe par le conduit central de l'espace annulaire à un débit suffisamment élevé et maintient ainsi une température quasi isotherme de la paroi du conduit intérieur qui est supérieure à la température de fusion du PCM. La dynamique laminaire couplée à deux dimensions et les équations énergétiques transitoires du modèle sont convenablement dédimensionnées et sont résolues numériquement en utilisant l'approche enthalpie-porosité. Les évolutions selon le facteur temps des modèles d'écoulement et des distributions de température sont présentées par des champs vectoriels de vitesse et des courbes isothermiques. Dans cette étude, deux types d'espaces annulaires remplis de PCM, un espace annulaire simple et un espace annulaire longitudinal à ailettes s
275

Optimizing the time warp protocol with learning techniques

Wang, Jun January 2010 (has links)
The history of the Time Warp protocol, one of the most commonly used synchronization protocols in parallel and distributed simulation, has been a history of optimizations. Usually the optimization problems are solved by creating an analytical model for the simulation system through careful analysis of the behavior of Time Warp. The model is expressed as a closed-form function that maps system state variables to a control parameter. At run-time, the system state variables are measured and then utilized to derive the value for the control parameter. This approach makes the quality of the optimization heavily dependent on how closely the model actually reflects the simulation reality. Because of the simplifications that are necessary to make in the course of creating such models, it is not certain the control strategies are optimal. Furthermore, models based on a specific application cannot be readily adopted for other applications. / In this thesis, as an alternative approach, we present a number of model-free direct-search algorithms based on techniques from system control, machine learning, and evolutionary computing, namely, learning automata, reinforcement learning, and genetic algorithms. What these methods have in common is the notion of learning. Unlike the traditional methods used in Time Warp optimization, these learning methods treat the Time Warp simulator as a black box. They start with a set of candidate solutions for the optimization parameter and try to find the best solution through a trial-and-error process: learning automata give a better solution a higher probability to be tried; reinforcement learning keeps a value for each candidate that reflects the candidate's quality; genetic algorithms have a dynamic set of candidates and improves the quality of the set by mimicking the evolutionary process. We describe how some optimization problems in Time Warp can be transformed into a search problem, and how the learning methods can be utilized to directly search for the optimal value for the system control parameter. Compared with the analytical model-based approach, these methods are more generic in nature. Since the search is based on actual run-time performance of different values for the control parameter, the learning methods also better reflect the simulation reality. / L'histoire du protocole Time Warp, l'un des protocoles de synchronisation le plus couramment utilise en matiere de simulation parallele et distribue, a ete une histoire de optimisations. Habituellement, la problemes d'optimisation sont resolus par creer un modele analytique pour le systeme de simulation par une analyse minutieuse de la comportement de Time Warp. Le modele est exprime comme une fonction de la forme ferme entre les variables d'etat du systeme et un parametre de controle. Au moment de l'execution, les variables d'etat du systeme sont mesures et servent ensuite à calculer la valeur du parametre de controle. Cette approche rend la qualite de l'optimisation dépend fortement sur la maniere de pres le modele reflete reellement la realite de simulation. En raison de la simplications qui sont necessaires de faire dans le courant de creer de tels modeles, il n'est pas certain que les strategies de controle sont optimale. En outre, les modeles bases sur une application specifique ne peut etre facilement adopte pour d'autres applications. / Dans cette these, comme une approche alternative, nous presentons un certain nombre de algorithmes de direct recherche sans modeles base sur des techniques de controle du systeme, l'apprentissage automatique et evolutive l'informatique, a savoir, l'apprentissage des automates, apprentissage par renforcement, et genetique algorithmes. Ce que ces methodes ont en commun est la notion d'apprentissage. Contrairement aux methodes traditionnelles utilisees dans d'optimisation de Time Warp, ces apprentissages méthodes traitent le simulateur Time Warp comme une boite noire. Ils commencent par une ensemble de solutions candidates pour le parametre d'optimisation et essayer de trouver la meilleure solution grace a un essai-erreur de processus: l'apprentissage d'automates donner un meilleur solution d'une plus grande probabilite d'etre juge; apprentissage par renforcement garde un valeur pour chaque candidat qui reflete la qualite du candidat; genetiques algorithmes ont un ensemble dynamique de candidats et ameliore la qualite de la mis en imitant le processus evolutif. Nous decrivons comment certains probl`emes d'optimisation dans Time Warp peut etre transforme en un probleme de recherche, et comment les methodes d'apprentissage peut etre utilise pour directement recherche de la valeur optimale pour le parametre de controle du systeme. En comparaison avec le modele analytique approche, ces methodes sont plus generiques dans la nature. Comme la recherche est basee sur l'ecoulement des performances en temps reel des differents valeurs pour le parametre de controle, les methodes d'apprentissage aussi de mieux refleter la realite de la simulation.
276

Learning approximate representations of partially observable systems

Dinculescu, Monica January 2010 (has links)
Learning agents that interact with complex environments often cannot predict the exact outcome of their actions due to noisy sensors or incomplete knowledge of the world. Learning the internal representation of such partially observable environments has proven to be a difficult problem. In order to simplify this task, the agent can choose to give up building an exact model which is able to predict all possible future behaviours, and replace it with a more modest goal of predicting only specific quantities of interest. / In this thesis we are primarily concerned with ways of representing the agent's state that allows it to predict the conditional probability of a restricted set of future events, given the agent's past experience. Because of memory limitations, the agent's experience must be summarized in such a way as to make these restricted predictions possible. We introduce the novel idea of history representations, which allow us to condition the predictions on ``interesting'' behaviour, and present a simple algorithmic implementation of this framework. The learned model abstracts away the unnecessary details of the agent's experience and focuses only on making certain predictions of interest. We illustrate our approach empirically in small computational examples, demonstrating the data efficiency of the algorithm. / L'apprentissage d'agents artificiels confrontés à un environnement complexe est souvent difficile dû à leur incapacité à prédire le résultat de leurs actions et à une description incomplète du système. L'apprentissage d'une représentation interne d'un environnement partiellement observable est particulièrement malaisé. Afin de simplifier cette tâche, l'agent peut, plutôt que de constuire un modèle exact capable de prédire tout comportement futur, chercher à ne prédire que quelque phénomènes en particulier. / Dans cet ouvrage, nous nous intéressons à la question de représenter l'état du système de manière à predire la probabilité conditionnelle d'un ensemble restreint d'événements, étant donné l'expérience précédente de l'agent. Dû à une limite quant à la capacité mémoire de l'agent, cette expérience doit être résumée quant à rendre atteignable cet ensemble restreint de prédictions. Nous proposons ici l'idée d'employer des représentations basées sur un historique afin de produire des prédictions conditionnelles à des comportements ``intéressants''. Nous développons cette idée par le bias d'un algorithme. Nous illustrons notre approche de manière empirique à travers de simples exemples computationnels, démontrant ainsi l'efficacité de l'algorithme quant à la quantitée de données requises.
277

Optimal time scales for reinforcement learning behaviour strategies

Comanici, Gheorghe January 2010 (has links)
Reinforcement Learning is a branch of Artificial Intelligence addressing the problem of single-agent autonomous sequential decision making. It proposes computational models which do not rely on the complete knowledge of the dynamics of stochastic environments. Options are a formalism used to temporally extend actions towards hierarchically organized behaviour, a concept used to improve learning in large-scale problems. In this thesis we propose a new approach for generating options. Given controllers or behaviour policies as prior knowledge, we learn how to switch between these policies by optimizing the expected total discounted reward of the hierarchical behaviour. We derive gradient descent-based algorithms for learning optimal termination conditions of options, based on a new option termination representation. We provide theoretical guarantees and extentions of widely used Reinforcement Learning algorithms when options have variable time-scales. Finally, we incorporate the proposed approach into policy-gradient methods with linear function approximation. / L'apprentissage par renforcement est une branche de l'intelligence artificielle qui traite la problème de la prise de décision autonome des agents-individuels. Celui-ci fournit des modèles de calcul qui ne sont pas dépendants sur la connaissance complète de la dynamique des environnement stochastique. Les options présentent un formalisme utilisé à rallonger temporellement les actions pour obtenir des façons d'agir organisées dans une hiérarchie. Dans cette thèse, on propose une nouvelle approche pour générer des options. Étant donné q'on a des contrôleurs ou façons d'agir comme connaissances préalables, on apprend a commuter l'utilisation des contrôleurs en optimisant l'espérace de la récompence totale escomptée du façon d'agir hiérarchique. On dérive des algorithmes basés sur la descente de gradient pour apprendre les conditions de terminaison optimales, en utilisant une nouvelle représentation de la terminaison. On fournit des garanties théorétiques et des variations des algorithmes largement utilisés dans l'apprentisage par renforcement, en employant des options avec échelles de temps variables. Enfin, on intègrent l'approche proposée dans des méthodes qui utilisent la descente de gradient pour les façon d'agir avec l'approximation linéaire de fonction.
278

Investigating specularities on short-wave surfaces

Ouyang, Yue January 2010 (has links)
We present a framework of specularity pattern to interpret the interaction between specularities and short-wave specular planes as well as light sources at infinity. The specularity on a short-wave plane is treated as a special kind of texture (specularity pattern) mapping on a flat carrier plane. This concept of specularity pattern acts as an intermediate layer between the 3D scene setting and the 2D image of the scene. Under the framework of specularity pattern, the information on specularities is divided into two parts, appearance and statistics. The appearance provides a texture for mapping to invoke impression of specularities. The statistics is the properties to generate such a plausible appearance. The statistics of specularity pattern contains the highlight occurrence probabilities on different locations in the specularity pattern and the size and shape of individual highlight particles. These statistics are derived from the surface roughness, the lightening condition, and the camera position. In addition, we have developed an algorithm to generate a plausible specularity pattern without going through the process of ray-tracing. Since this specularity pattern rendering method does not focus on any specific family of short-wave plane, it works well on surfaces without closed-form expressions and surfaces without exact height or normal maps. Also, we outline a potential application of the framework of specularity pattern in computer vision. / Nous présentons un modèle de cadre de la spécularité d'interpréter l'interaction entre spécularités et ondes courtes plans spéculaires ainsi que des sources de lumière à l'infini. La spécularité sur un plan de court-ondes est considérée comme une forme particulière de texture (spécularité motif) la cartographie sur un plan porteur plat. Ce concept de modèle de spécularité agit comme une couche intermédiaire entre la mise en scène 3D et 2D de l'image de la scène. Dans le cadre du modèle de la spécularité, les informations sur spécularités est divisé en deux parties, l'apparence et les statistiques. L'aspect donne une texture pour la cartographie d'invoquer impression de spécularités. Les statistiques sont les propriétés pour générer une telle apparence plausible. Les statistiques du modèle de la spécularité contient les probabilités d'occurrence mettre en évidence à différents endroits dans la configuration spécularité et de la taille et la forme des particules individuelles en évidence. Ces statistiques sont tirées de la rugosité de surface, l'état d'allégement, et la position de la caméra. En outre, nous avons développé un algorithme pour générer un motif plausible spécularité sans passer par le processus de ray-tracing. Depuis cette méthode motif spécularité rendu ne porte pas sur toute la famille spécifique de l'avion à ondes courtes, il fonctionne bien sur des surfaces sans expressions forme fermée et surfaces sans hauteur exacte ou des cartes normales. En outre, nous présentons une application potentielle du cadre de modèle spécularité en vision par ordinateur.
279

Guarding problems and geometric split trees

King, James January 2011 (has links)
Many geometric problems are intrinsically linked to the issue of splitting or classifying points. We investigate two such families of problems in two separate branches of research. Guarding problems are motivated by the issue of guarding a region with security cameras or illuminating it with lights. Such problems have been studied for decades, but there are two significant guarding problems whose complexity is not completely understood. First, we investigate the problem of guarding simple polygons; this problem is known to be NP-complete but its approximability is not known. Second, we investigate the complexity of guarding monotone chains, also known as 1.5-dimensional terrains. Understanding the interaction of 'visibility polygons' and how they separate point sets is crucial for the investigation of such problems. We resolve a significant open problem by proving strong NP-completeness for terrain guarding. We also present an approximation algorithm for guarding simple polygons with perimeter guards; this new algorithm improves the state of the art.A geometric split tree is a data structure for storing point sets that recursively splits the space, and in turn the data, in some random way. Understanding the distribution of such a tree's structure is a matter of understanding the distribution of the splits. We investigate the distributions associated with several natural splitting methods. We make new connections between an important problem in discrete geometry and natural probability distributions. With the goal of analyzing geometric split trees based on their splits, we introduce a random tree model that is general while still allowing powerful comparisons with random trees from more restricted models. / Beaucoup de problèmes géométriques sont intrinsèquement liés à la question de la division ou classification des points. Nous étudions deux familles de problèmes dans deux branches distinctes de recherche. Les problèmes de surveillance sont motivés par la question de la surveillance d'une région avec des caméras de sécurité ou d'éclairage avec des feux. Ces problèmes ont été étudiés depuis des décennies, mais il y a deux problèmes importants dont la complexité n'est pas complètement élucidée. Tout d'abord, nous étudions le problème de surveiller des polygones simples. Ce problème est connu pour être NP-complet, mais son approximabilité n'est pas connue. Deuxièmement, nous étudions la complexité de surveiller des chaînes monotones, aussi connues comme terrains en dimension 1,5. Comprendre l'interaction des polygones de visibilité et la façon dont ils divisent les ensembles de points est crucial pour l'étude de ces problèmes. Nous résoudrons un problème important ouvert en prouvant que surveiller les terrains est fortement NP-complet. Nous présentons également un algorithme d'approximation pour la surveillance des polygones simples avec des gardes sur le périmètre. Ce nouvel algorithme améliore l'état de l'art.Un arbre de division géométrique est une structure de données pour stocker des ensembles de points qui divise de manière récursive l'espace, et aussi les données, d'une certaine manière aléatoire. Le compréhension de la répartition de la structure d'un tel arbre est une question de compréhension des répartitions des divisions. Nous étudions les répartitions associées à plusieurs méthodes de division naturelles. Nous faisons de nouvelles connexions entre un problème important en géométrie discrète et des distributions de probabilité naturelles. Dans le but d'analyser les arbres de division géométriques en fonction de leurs divisions, nous introduisons un modèle d'arbre aléatoire qui est général tout en permettant des comparaisons puissants avec les arbres aléatoires dans des modèles plus restreints.
280

Model-based testing of model transformations

Al Mallah, Amr January 2011 (has links)
Model Driven Engineering (MDE) research has achieved major progress in the past fewyears. Though MDE research and adoption are moving forward at an increasing pace,there are still few major challenges left to be addressed. Model Transformations (MT)represent an essential part of MDE that is gradually reaching maturity level. Testing MThas been shown to be a challenging task due to a new set of problems. In this thesis weattempt to complement the work done so far by the research community to address MTtesting challenges.We use findings from the research in classical testing to create a prospective view on MTtesting challenges and opportunities. More specifically, we focus on two challenges : ModelComparison and automating testing execution through a Testing Framework. First,we introduce a model comparison approach (based an existing graph comparison algorithm)that is customizable, and fine tuned to performs best in testing situations. Theperformance of our algorithm is throughly investigated against different types of models.Second, we introduce TUnit : a modelled framework for testing Model transformations.We demonstrate the benefit of using TUnit in supporting the process of testing transformationsin regression testing and enabling semantic equivalence through extending ourcase study to perform a comparison of coverability graphs of Petri Nets. / La recherche sur le Model Driven Engineering (MDE) a accomplit de grands progrèsau cours des dernières années. Bien que la recherche et l'adoption avancent à grandspas, il reste encore plusieurs défis majeurs à adresser. La Transformation de Modèle(TM) représente un élément essentiel du MDE qui atteint graduellement le niveau dematurité. Le test sur les TM s'est démontré être une tˆache difficile en raison des nouveauxproblèmes survenus. Dans cette thèse, nous essayons de complémenter le travail complétépar la communauté de recherche pour adresser les défis restants des tests sur les TM.Nous utilisons les résultats de la recherche en tests classiques pour créer une visionprospective sur les défis et opportunités des tests sur les TM. Nous nous concentrons plusprécisement sur les deux défis suivants : la comparaison des modèles et l'automation destests exécutés à travers un cadre de tests . Tout d'adord, nous présentons une approcheen comparaison de modèles qui peut être personnalisée et atteint de meilleurs résultatsdans des situations de tests. La performance de notre algorithme est rigoureusementétudiée contre différents types de modèles. Deuxièmement, nous introduisons Tunit : uncadre de tests en transformation de modèles qui est aussi un modèle. Nous démontronsles avantages d'utiliser TUnit pour donner un support au processus de tests sur lestransformations en tests de regression et permettre l'équivalance sémantique.

Page generated in 0.074 seconds