• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2454
  • 1629
  • 1258
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5672
  • 3147
  • 3008
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 629
  • 598
  • 486
  • 477
  • 457
  • 457
  • 443
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Intégration d'un modèle d'adaptation dynamique et de sécurité d'objets avec vue

Dallaire, Éric January 2010 (has links) (PDF)
La programmation orientée objet est une solution idéale pour une multitude de problèmes depuis plus de deux décennies. Des langages tels que le C++ et le Java ont largement contribué à l'expansion. Ce succès repose en partie sur une raison toute simple : il est plus naturel d'utiliser des objets qui se rapprochent de la réalité « humaine » que de travailler avec des fonctions séquentielles généralement associées à des processus informatiques. Il est relativement aisé d'identifier les caractéristiques et les comportements d'un objet et toute bonne analyse permet de gérer adéquatement les interrelations entre les objets dans un système. Toutefois, on limite parfois notre réflexion à un stade d'abstraction insuffisant pour aller chercher un maximum d'avantages des objets. Les objets sont correctement développés, dans un système répondant à un nombre fini d'événements, mais on néglige le fait que ce même système est en contact avec un élément chaotique et imprévisible, l'humain. Prenons exemples des comportements dynamiques entre les objets, des divers patrons de conception déjà avancés, mais surtout de la question des comportements de ces objets (ayant des comportements figés) face aux besoins réels d'un utilisateur en constant changement. Après un certain temps, un système informatique peut évoluer dans ses comportements et ses rôles. De nouvelles fonctionnalités sont, à travers son cycle de vie, ajoutées, supprimées ou deviennent tout simplement non disponibles. Aussi, chacun des acteurs du système, autant les clients humains que les systèmes informatiques externes, a des besoins variables qui peuvent exiger un changement de vocation du système utilisé. Ce dernier doit être évolutif pour y répondre. À une échelle d'entreprise, on peut dire que plusieurs clients observent et utilisent des aspects distincts du même objet. Que faire si cet objet ne peut satisfaire aux différents intérêts du client? La programmation par vue a pour mission de répondre à cette situation. Elle permet à différents usagers de percevoir et utiliser différents sous-ensembles des fonctionnalités présentes au sein de l'objet a un moment donné. Le client a un besoin un jour, la programmation par vue lui propose une interface adaptée, son besoin change le lendemain, les vues évoluent en conséquence. La programmation par vue existe depuis quelques années, mais certains questionnements étaient demeurés sans réponse. Le sujet du présent mémoire sera de fournir quelques-unes des réponses à une série de problématiques entourant principalement i) la sécurisation de l'objet partagé selon les privilèges de chaque programme client, ii) la transparence et la gestion de changement de comportements de l'objet en question, et iii) l'intégration de mécanismes de partage des ressources. Nous avons étendu le modèle de sécurité de Java afin de pouvoir gérer l'évolution des comportements. Java propose un modèle d'utilisation simple demandant une configuration minimale. Notre solution vise à garder une approche le plus transparente possible pour le client et aussi pour la classe de base (le système) que l'on désire faire évoluer. Notre recherche abordera la programmation par vue avec extension de sécurité à l'aide d'énoncés de problématiques. Le développement de notre outil sera accompli via une solution conceptuelle en UML et une implementation en Java.
202

Smartcells : a Bio-Cloud theory towards intelligent cloud computing system

Karawash, Ahmad 07 1900 (has links) (PDF)
Cloud computing is the future of web technologies and the goal for all web companies as well. It reinforces some old concepts of building highly scalable Internet architectures and introduces some new concepts that entirely change the way applications are built and deployed. In the recent years, some technology companies adopted the cloud computing strategy. This adoption took place when these companies have predicted that cloud computing will be the solutions of Web problems such as availability. However, organizations find it almost impossible to launch the cloud idea without adopting previous approaches like that of Service-Oriented approach. As a result of this dependency, web service problems are transferred into the cloud. Indeed, the current cloud’s availability is too expensive due to service replication, some cloud services face performance problem, a majority of these services is weak regarding security, and cloud services are randomly discovered while it is difficult to precisely select the best ones in addition to being spontaneously fabricated in an ocean of services. Moreover, it is impossible to validate cloud services especially before runtime. Finally, according to the W3C standards, cloud services are not yet internationalized. Indeed, the predicted web is a smart service model while it lacks intelligence and autonomy. This is why the adoption of service-oriented model was not an ideal decision. In order to minimize the consequences of cloud problems and achieve more benefits, each cloud company builds its own cloud platform. Currently, cloud vendors are facing a big problem that can be summarized by the “Cloud Platform Battle”. The budget of this battle will cost about billions of dollars due to the absence of an agreement to reach a standard cloud platform. Why intelligent collaboration is not applied between distributed clouds to achieve better Cloud Computing results? The appropriate approach is to restructure the cloud model basis to recover its issues. Multiple intelligent techniques may be used to develop advanced intelligent Cloud systems. Classical examples of distributed intelligent systems include: human body, social insect colonies, flocks of vertebrates, multi-agent systems, transportation systems, multi-robot systems, and wireless sensor networks. However, the intelligent system that could be imitated is the human body system, in which billions of body cells work together to achieve accurate results. Inspired by Bio-Informatics strategy that benefits from technologies to solve biological facts (like our genes), this thesis research proposes a novel Bio-Cloud strategy which imitates biological facts (like brain and genes) in solving the Cloud Computing issues. Based on Bio-Cloud strategy, I have developed through this thesis project the “SmartCells” framework as a smart solution for Cloud problems. SmartCells framework covers: 1) Cloud problems which are inherited from the service paradigm (like issues of service reusability, security, etc.); 2) The intelligence insufficiency problem in Cloud Computing systems. SmartCells depends on collaborations between smart components (Cells) that take advantage of the variety of already built web service components to produce an intelligent Cloud system. Le « Cloud Computing » est certes le futur des technologies du web. Il renforce certains vieux concepts de construction d’architectures internet hautement évolutifs, et introduit de nouveaux concepts qui changent complètement la façon dont les applications sont développées et déployées. Au cours des dernières années, certaines entreprises technologiques ont adopté la stratégie du Cloud Computing. Cette adoption a eu lieu lorsque ces entreprises ont prédit que le Cloud Computing sera les solutions des plusieurs problèmes Web tels que la disponibilité. Toutefois, les organisations pensent qu'il est presque impossible de lancer l'idée du « Cloud » sans adopter les concepts et les normes antérieures comme celle du paradigme orienté service (Service-Oriented Paradigm). En raison de cette dépendance, les problèmes de l'approche orientée service et services web sont transférés au Cloud. En effet, la disponibilité du Cloud actuel s’avère trop chère à cause de la reproduction de services, certains services Cloud sont confrontés à des problèmes de performances, une majorité des services Cloud est faible en matière de sécurité, et ces services sont découverts d’une façon aléatoire, il est difficile de choisir le meilleur d’entre eux ainsi qu’ils sont composés d’un groupe de services web dans un monde de services. Egalement, il est impossible de valider les services Cloud en particulier, avant le temps d’exécution. Finalement, selon les normes du W3C, les services Cloud ne sont pas encore internationalisés. En effet, le web comme prévu, est un modèle de service intelligent bien qu’il manque d’intelligence et d’autonomie. Ainsi, l'adoption d'un modèle axé sur le service n’était pas une décision idéale. Afin de minimiser les conséquences des problèmes du Cloud et réaliser plus de profits, certaines entreprises de Cloud développent leurs propres plateformes de Cloud Computing. Actuellement, les fournisseurs du Cloud font face à un grand problème qui peut se résumer par la « Bataille de la plateforme Cloud ». Le budget de cette bataille coûte des milliards de dollars en l’absence d’un accord pour accéder à une plateforme Cloud standard. Pourquoi une collaboration intelligente n’est pas mise en place entre les nuages distribués pour obtenir de meilleurs résultats ? L’approche appropriée est de restructurer le modèle de cloud afin de couvrir ses problèmes. Des techniques intelligentes multiples peuvent être utilisées pour développer des systèmes Cloud intelligents avancés. Parmi les exemples classiques de systèmes intelligents distribués se trouvent : le corps humain, les colonies d’insectes sociaux, les troupeaux de vertébrés, les systèmes multi-agents, les systèmes de transport, les systèmes multi-robots, et les réseaux de capteurs sans fils. Toutefois, le système intelligent qui pourrait être imité est le système du corps humain dans lequel vivent des milliards de cellules du corps et travaillent ensemble pour atteindre des résultats précis. En s’inspirant de la stratégie Bio-Informatique qui bénéficie de technologies pour résoudre des faits biologiques (comme les gènes). Cette thèse propose une nouvelle stratégie Bio-Cloud qui imite des faits biologiques (comme le cerveau et les gènes) pour résoudre les problèmes du Cloud Computing mentionnés ci-haut. Ainsi, en me basant sur la stratégie Bio-Cloud, j’ai développé au cours de cette thèse la théorie « SmartCells » conçue comme une proposition (approche) cherchant à résoudre les problèmes du Cloud Computing. Cette approche couvre : 1) les problèmes hérités du paradigme services (comme les questions de réutilisation de services, les questions de sécurité, etc.); 2) le problème d’insuffisance d’intelligence dans les systèmes du Cloud Computing. SmartCells se base sur la collaboration entre les composants intelligents (les Cellules) qui profitent de la variété des composants des services web déjà construits afin de produire un système de Cloud intelligent.
203

Gestion de cycle de vie des objets par aspects pour C++

Sioud, Aymen January 2006 (has links) (PDF)
Les langages tels Java, Simula, Eiffel, Modula III sont des langages orientés objet qui ont gagné leur popularité grâce à la sûreté du traitement des exceptions et à là politique de sécurité qu'ils utilisent, notamment pour la gestion mémoire. En effet, Meyer a placé la gestion automatique de la mémoire en troisième position dans les "sept commandements" de la programmation orientée objet. L'entité utilisée pour assurer la gestion automatique de la mémoire est appelée Garbage Collector ou ramasse-miettes. Certains langages comme C, C"1"1", Ada, Pascal et bien d'autres utilisent une libération explicite de la mémoire. L'avantage majeur de cette libération par rapport au Garbage Collector est sans doute l'emploi des pointeurs, outil très important permettant un accès direct à certaines zones mémoires et une utilisation plus optimale de l'espace mémoire. Le C++ est l'un des langages de programmation les plus utilisés actuellement. Il est à la fois facile à utiliser et très efficace. Les caractéristiques du C++ en font un langage idéal pour certains types de projets. Il est incontournable dans la réalisation des grands programmes. Les optimisations des compilateurs actuels en font également un langage de prédilection pour ceux qui recherchent les performances. Puisqu'il est une extension de l'ANSI-C, C++ utilise une gestion explicite de la mémoire avec les delete, new, free et malloc. Pour Ellis et Stroustrup, la gestion de mémoire explicite via le Garbage Collector n'est pas une composante du langage C++. Nous proposons dans notre travail de recherche un outil assurant une gestion implicite de la mémoire basé sur la programmation aspect, notamment avec l'extension AspectC++ qui est un préprocesseur pour un compilateur C++ usuel. L'idée est d'implémenter via AspectC++ des compteurs de références pour les objets nouvellement créés. Il s'agit d'attribuer un compteur de références à un objet, d'incrémenter ce compteur chaque fois qu'un autre objet crée une référence vers le premier objet et de décrémenter ce compteur chaque fois qu'une référence est supprimée. L'objet sera détruit dès que son compteur associé sera à zéro.
204

A practical application of a text-independent speaker authentication system on mobile devices

Thullier, Florentin January 2016 (has links) (PDF)
The growing market of mobile devices forces to question about how to protect users’ credentials and data stored on such devices. Authentication mechanisms remain the first layer of security in the use of mobile devices. However, several of such mechanisms that have been already proposed were designed in a machine point of view. As a matter of fact, they are not compatible with behaviors human have while using their mobile devices in the daily life. Consequently, users adopted unsafe habits that may compromise the proper functioning of authentication mechanisms according to the safety aspect. The first main objective of this research project is to highlight strengths and weaknesses of current authentication systems, from the simpler ones such as PIN (Personal Identification Number) to the more complex biometric systems such as fingerprint. Then, this thesis offers an exhaustive evaluation of existing schemes. For this evaluation, we rely on some existing criteria and we also propose some new ones. Suggested criteria are chiefly centered on the usability of these authentica-tion systems. Secondly, this thesis presents a practical implementation of a text-independent speaker au-thentication system for mobile devices. We place a special attention in the choice of algorithms with low-computational costs since we want that the system operates without any network communication. Indeed, the enrollment, as well as the identification process are achieved onto the device itself. To this end, our choice was based on the extraction of Linear Prediction Cepstral Coefficients (LPCCs) (Furui 1981; O'Shaughnessy 1988) to obtain relevant voice features and the Naïve Bayes classifier (Zhang 2004) to predict at which speaker a given utterance corresponds. Furthermore, the authenti-cation decision was enhanced in order to overcome misidentification. In that sense, we introduced the notion of access privileges (i.e. public, protected, private) that the user has to attribute to each appli-cation installed on his/her mobile device. Then, the safest authority is granted through the result of the speaker identification decision as well as the analysis of the user’s location and the presence of a headset. In order to evaluate the proposed authentication system, eleven participants were involved in the experiment, which was conducted in two different environments (i.e. quiet and noisy). Moreover, we also employed public speech corpuses to compare this implementation to existing methods. Results obtained have shown that our system is a relevant, accurate and efficient solution to authenticate users on their mobile devices. Considering acceptability issues which were pointed out by some users, we suggest that the proposed authentication system should be either employed as part of a multilayer authentication, or as a fallback mechanism, to cover most of the user needs and usages. La croissance du marché des dispositifs mobiles implique de se questionner au sujet de comment protéger l’identité ainsi que les données personnelles des utilisateurs qui sont stockées sur ces appareils. En ce sens, les mécanismes d’authentification demeurent la première couche de sécurité dans l’utilisation des mobiles. Cependant, il apparaît que la plupart des mécanismes d’authentification qui ont été proposés, ont été conçus suivant un point de vue orienté machine plutôt qu’humain. En effet, ceux-ci ne s’adaptent généralement pas avec l’usage quotidien qu’ont les utilisateurs lorsqu’ils se servent leur téléphone. En conséquence, ils ont adopté des habitudes dangereuses qui peuvent compromettre le bon fonctionnement des systèmes d’authentification. Celles-ci peuvent alors remettre en question la sécurité de leur identité ainsi que la confidentialité de leur contenu numérique. Le premier objectif principal de ce projet de recherche est de faire ressortir les forces et les faiblesses des méthodes d’authentification qui existent actuellement, des plus simples comme le NIP (Numéro d’Identification Personnel) aux solutions biométriques plus complexes comme l’empreinte digitale. Par la suite, ce mémoire offre une évaluation exhaustive de ces solutions, basée sur des critères existant ainsi que de nouveaux critères que nous suggérons. Ces derniers sont majoritairement centrés sur l’utilisabilité des mécanismes d’authentification qui ont été examinés. Dans un second temps, ce mémoire présente une implémentation pratique, pour périphériques mobiles, d’un système d’authentification d’orateur indépendant de ce qui est prononcé par l’utilisateur. Pour concevoir un tel système, nous avons porté une attention particulière dans le choix d’algorithmes admettant un faible temps d’exécution afin de se prémunir des communications réseau. En effet, ceci nous permet alors de réaliser le processus d’entraînement ainsi que la reconnaissance, directement sur le mobile. Les choix technologiques se sont arrêtés sur l’extraction de coefficients spectraux (Linear Prediction Cepstral Coefficients) (Furui 1981; O'Shaughnessy 1988) afin d’obtenir des caractéristiques vocales pertinentes, ainsi que sur une classification naïve bayésienne (Zhang 2004) pour prédire à quel utilisateur correspond un énoncé donné. La décision finale, quant à elle, a été améliorée afin de se prémunir des mauvaises identifications. En ce sens, nous avons introduit la notion de droits d’accès spécifiques (i.e. publique, protégé ou privé) que l’utilisateur doit attribuer à chacune des applications installées sur son mobile. Ensuite, l’autorisation d’accès la plus adaptée est accordée, grâce au résultat retournée par l’identification de l’orateur, ainsi que par l’analyse de la localisation de l’utilisateur et de l’emploi d’un micro-casque. Pour réaliser l’évaluation du système que nous proposons ici, onze participants ont été recrutés pour la phase d’expérimentation. Cette dernière a été menée dans deux types d’environnements différents (i.e. silencieux et bruyant). De plus, nous avons aussi exploité des corpus de voix publiques afin de comparer notre implémentation à celles qui ont été proposées par le passé. Par conséquent, les résultats que nous avons obtenus ont montré que notre système constitue une solution pertinente, précise et efficace pour authentifier les utilisateurs sur leurs périphériques mobiles. Compte tenu des problèmes d’acceptabilité qui ont été mis en avant par certains testeurs, nous suggérons qu’un tel système puisse être utilisé comme faisant part d’une authentification à plusieurs facteurs, mais aussi comme une solution de repli, en cas d’échec du mécanisme principal, afin de couvrir la majorité des besoins et des usages des utilisateurs.
205

The research on algorithm of image mosaic

Wang, Xin January 2008 (has links) (PDF)
Image based rendering (IBR) has been the most Important and rapid developed techniques in the computer graphics and virtual reality fields these years. Image mosaic which is one of the hot topics of IBR is also becoming research interests of many researchers in the image processing and computer vision fields. Its application covers the areas of virtual scene construction, remote sensing, medical image and military affairs etc. However, some difficult issues need to be studied further, including new optimization methods for image registration, new accelerating methods for image stitching etc, which are the main topics of this thesis. First, as the precision and automatic degree of image mosaic suffers from the algorithm of image registration, a new image stitching optimization method based on maximum mutual information is presented in this thesis. The main idea of the new method is to combine PSO algorithm with wavelet multiresolution strategy and parameters of PSO are adapted along with the resolution of the images.The experiments show that this method can avoid registration process to get stuck into local extremes in image interpolation operations and finds the optimal exchange through limited iterations computation, and obtain subpixel registration accuracy in process of image stitching. Secondly, to solve the problem of image blur stitching when the geometric deformation and the changes of the scale factor among images are serious, a new method based robust features matching is proposed in this thesis. Firest, it searches overlap area between two images by using phase correlation, and then detects Harris comer points in the overlap areas which are reduced to different scale images by adopting multi resolution pyramid construction. This method can solve the Harris arithmetic operator robust characteristics inspection algorithm for the scale effects. In order to improve the running performance of image feature matching, a dimension reduction method of high dimension feature vector is proposed based on PCA. And last the globe parameters are optimized by Lmeds to realize images mosaic. The experiments prove that the methods proposed by this thesis can reduce the computation cost with guarantee of image mosaic quality.
206

Nonstandard reamer CAD/CAE/CAM integrated system

Zhu, Shijun January 2006 (has links) (PDF)
The Chinese economy has increased quickly and continuously in recent years. Manufacturing is an important part of Chinese industry. The enhancement of modem manufacturing technology is becoming an important issue. The aim of the present thesis is to develop nonstandard (over-stiff) tools5 CAD/CAE/CAPP/CAM integrated system. This will involve integrating modern information technology, manufacturing technology and management technology. The thesis objective is to propose a totally new and integrated design, analysis and manufacturing system. This would provide to manufacturers a capability to carry out the incorporation of CAD/CAE/CAM systems. Many enterprises and universities have developed standard CAD system tools5 in recent years in China. But in regard to nonstandard complex CAD/CAM tools5, there is still much to be done. After more than one year investigation and research, a great quantity of information and data has been assembled, thus setting a solid foundation for completing this project successfully. This thesis considers in detail the problem associated with non-standard over stiff end milling cutters to illustrate the design approach used and its implementation. It uses a feature based model constructing technology and applies the CAD and finite element analysis together with relevant theories and technologies for processing and manufacturing. The thesis completes the development of non-standard complicated tools5 CAD \CAE \ CAM integrated system. The thesis consists of six chapters, dealing with the project's background, system's design and structural design requirements, finite element analysis, CAM, and some concluding remarks based on what was learned during the thesis work. The project's kernel technology is to use finite elements method to analyze the nonstandard complex tools' models using ANS YS large-scaled finite element analysis software.
207

The implementation of CRP (Capacity requirements planning) module

Bai, Hai January 2009 (has links) (PDF)
ERP (Enterprise Resource Planning) was originated as a management concept based on the supply chain to provide a solution to balance the planning of production within an enterprise. This article focuses on the CRP module in ERP, describes in detail the concept, content and modularization of CRP as well as its usefulness and application in the production process. The function of CRP module is to expand orders to production process to calculate production time, then to adjust the load or accumulative load of each center or machine accordingly. The function described in the article tries to load production time used as load to an unlimited extend, then to use auto-balance or normal adjustment to determine the feasibility of the production order planning.
208

Research on distributed data mining system and algorithm based on multi-agent

Jiang, Lingxia January 2009 (has links) (PDF)
Data mining means extracting hidden, previous unknown knowledge and rules with potential value to decision from mass data in database. Association rule mining is a main researching area of data mining area, which is widely used in practice. With the development of network technology and the improvement of level of IT application, distributed database is commonly used. Distributed data mining is mining overall knowledge which is useful for management and decision from database distributed in geography. It has become an important issue in data mining analysis. Distributed data mining can achieve a mining task with computers in different site on the internet. It can not only improve the mining efficiency, reduce the transmitting amount of network data, but is also good for security and privacy of data. Based on related theories and current research situation of data mining and distributed data mining, this thesis will focus on analysis on the structure of distributed mining system and distributed association rule mining algorithm. This thesis first raises a structure of distributed data mining system which is base on multi-agent. It adopts star network topology, and realize distributed saving mass data mining with multi-agent. Based on raised distributed data mining system, this these brings about a new distributed association rule mining algorithm?RK-tree algorithm. RK-tree algorithm is based on the basic theory of twice knowledge combination. Each sub-site point first mines local frequency itemset from local database, then send the mined local frequency itemset to the main site point. The main site point combines those local frequency itemset and get overall candidate frequency itemset, and send the obtained overall candidate frequency itemset to each sub-site point. Each sub-site point count the supporting rate of those overall candidate frequency itemset and sent it back to the main site point. At last, the main site point combines the results sent by sub-site point and gets the overall frequency itemset and overall association rule. This algorithm just needs three times communication between the main and sub-site points, which greatly reduces the amount and times of communication, and improves the efficiency of selection. What's more, each sub-site point can fully use existing good centralized association rule mining algorithm to realize local association rule mining, which can enable them to obtain better local data mining efficiency, as well as reduce the workload. This algorithm is simple and easy to realize. The last part of this thesis is the conclusion of the analysis, as well as the direction of further research.
209

Research on detecting mechanism for Trojan horse based on PE file

Pan, Ming January 2009 (has links) (PDF)
As malicious programs, Trojan horses have become a huge threat to computer networks security. Trojan horses can easily cause loss, damage or even theft of data because they are usually disguised as something useful or desirable, and are always mistakenly activated by computer users, corporations and other organizations. Thus, it is important to adopt an effective and efficient method to detect the Trojan horses, and the exploration of a new method of detection is of greater significance. Scientists and experts have tried many approaches to detecting Trojan horses since they realized the harms of the programs. Up to now, these methods fall mainly into two categories [2]. The first category is to detect Trojan horses through checking the port of computers since the Trojan horses send out message through computer ports [2]. However, these methods can only detect the Trojan horses that are just working when detected. The second class is to detect Trojan horses by examining the signatures of files [2] [19], in the same way as people deal with computer virus. As new Trojan horses may contain unknown signatures, methods in this category may not be effective enough when new and unknown Trojan horses appear continuously, sending out unknown signatures that escape detection. For the above-mentioned reasons, without exception, there are limitations in the existing methods if the un-awakened and unknown Trojan horses are to be detected. This thesis proposes a new method that can detect un-awakened and unknown Trojan horses- the detection by using of a file's static characteristics. This thesis takes PE file format as the object of the research, because approximately 75% of personal computers worldwide are installed the Microsoft Windows [4], and that Trojan horses usually exist as a Portable Executable (PE) file in the Windows platform. Based on the (PE) file format, my research gets all the static information of each part of PE file which is characteristic of a file. Then, this static information is analyzed by the intelligent information processing techniques. Next, a detection model is established to estimate whether a PE file is a Trojan horse. This model can detect the unknown Trojan horses by analyzing static characteristics of a file. The information that is used to verify detecting model is new and unknown to the detecting model; in other words, the information is not used during the training of the model. The thesis is organized as follows. First, this thesis discusses the limitations of traditional detection techniques, related works of research, and a new method to detect Trojan horse based on file's static information. Second, the thesis focuses on the research of the Trojan horse detecting models, covering the extracting of the static information from PE file, choice of intelligent information processing techniques, and setting up the Trojan horse detecting model. Lastly, the thesis discusses the direction of future research in this field.
210

Analysis of credit card data based on data mining technique

Zheng, Ying January 2009 (has links) (PDF)
In recent years, large amounts of data have accumulated with the application of database systems. Meanwhile, the requirements of applications have not been confined in the simple operations, such as search and retrieval, because these operations were not helpful in finding the valuable information from the databases. The hidden knowledge is hard to be handled by the present database techniques, so a great wealth of knowledge concealed in the databases is not developed and utilized mostly. Data mining aimed at finding the essential significant knowledge by automatic process of database. DM technique was one of the most challenging studies in database and decision-making fields. The data range processed was considerably vast from natural science, social science, business information to the data produced from scientific process and satellite observation. The present focuses of DM were changed from theories to practical application. Where the database existed, there were many projects about DM to be studied on. The paper concentrated on the research about data information in credit card by DM theories, techniques and methods to mine the valuable knowledge from the card. Firstly, the basic theories, key algorithms of DM techniques were introduced. The emphases were focused on the decision tree algorithms, neural networks, X-means algorithm in cluster and Apriori algorithm in association rule by understanding the background of bank and analyzing the knowledge available in the credit card. A preliminary analysis of credit card information, Industry and Business Bank at Tianjin Department, was performed based on the conversion and integration of data warehouse. The combined databases including information of customers and consumptive properties were established in accordance with the idea of data-warehouse. The data were clustered by iT-means algorithm to find valuable knowledge and frequent intervals of transaction in credit card. Back propagation neural networks were designed to classify the information of credit card, which played an important role in evaluation and prediction of customers. In addition, the Apriori algorithm was achieved to process the abovementioned data, which could establish the relations between credit information of customers and consumption properties, and to find the association rule among credit items themselves, providing a solid foundation for further revision of information evaluation. Our work showed that DM technique made great significance in analyzing the information of credit card, and laid down a firm foundation for further research in the retrieval information from the credit card.

Page generated in 0.0489 seconds