• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 6
  • 6
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 61
  • 23
  • 20
  • 15
  • 13
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contributions au déploiement sécurisé de processus métiers dans le cloud / Contribution to the secure deployment of business processes in the cloud

Ahmed Nacer, Amina 26 February 2019 (has links)
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant / The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
22

Hardware Security through Design Obfuscation

Chakraborty, Rajat Subhra 04 May 2010 (has links)
No description available.
23

Biais comportementaux et stratégies des acteurs du marché de l'assurance / Behavioral Biases and Strategies of Insurance Market Players

Mouminoux, Claire 23 October 2018 (has links)
Cette thèse a pour objectif d'analyser les interactions entre les agents économiques opérant sur le marché de l'assurance de détail. D'un côté, les assurés souhaitant se couvrir contre un risque de perte doivent explorer le marché afin de souscrire un contrat en ligne avec leur perception du risque. D'un autre côté, les assureurs se font concurrence sur un marché régulé, leur imposant un certain niveau de capital afin de garantir leur solvabilité dans un contexte d'incertitude sur les risques souscrits. D'autre part, des intermédiaires proposent leurs services afin de faciliter l'interaction entre les consommateurs, averses aux risques, et les firmes, preneuses de risques. C'est donc dans ce contexte que nous analysons les comportements des acteurs de l'assurance à travers différentes perspectives. Les Chapitre 1 et 2 de cette thèse résultent d'expérimentations en laboratoire, effectuées à l'aide d'une interface web conçue spécifiquement pour ces études. Les résultats du Chapitre 3, quant à eux, sont basés sur un modèle théorique et des simulations numériques. Le Chapitre 1 se concentre sur la relation entre l'honnêteté et les croyances en l'honnêteté des agents économiques. À l'aide des données collectées en laboratoire, nous montrons comment l'incertitude et le sentiment de se trouver dans des conditions plus ou moins avantageuses impactent à la fois le niveau d'honnêteté mais aussi la croyance en l'honnêteté envers les autres. En règle générale, les consommateurs surestiment l'honnêteté des intermédiaires. Ainsi, ce résultat justifie leur présence sur le marché de l'assurance. D'autre part, nous montrons aussi que les incitations financières proposées aux intermédiaires sont sources de distorsion des croyances en l'honnêteté. Plus le niveau d'incitation est faible, plus les consommateurs anticipent un comportement malhonnête. Dans le Chapitre 2, nous mettons en évidence le dilemme dont fait face le consommateur sur un marché comprenant une multitude de canaux de distribution. Doit-il explorer par lui-même et choisir parmi un large ensemble de contrats ou bien déléguer une partie de sa décision à un intermédiaire plus ou comportant des coûts de recherche, nous montrons que l'obfuscation liée à une importante quantité d'information et les croyances en l'honnêteté des intermédiaires sont les principaux déterminants des décisions de recherche et d'achat. Nous montrons également que l'obfuscation et l'attitude des intermédiaires sont sources d'inefficience dans les prises de décisions, en particulier vis-à-vis des caractéristiques des contrats d'assurance souscrits par les consommateurs. Dans ce sens, l'identification d'un effet de focalisation appuie l'importance du niveau des prix dans les prises de décision au détriment de l'environnement de risque et du niveau de couverture. L'introduction des coûts de recherche dans le processus d'exploration, ainsi que l'hétérogénéité des croyances en l'honnêteté justifient les stratégies de distribution multicanal adoptées par les assureurs. Une analyse d'un jeu non coopératif répété est exposée dans le Chapitre 3 de cette thèse où les pertes et le comportement des consommateurs sont stochastiques et les assureurs se font une concurrence en prix. Afin d'intégrer les contraintes des régulateurs, nous déterminons les équilibres de Nash sous contrainte de solvabilité. Nous analysons également la sensibilité des primes d'équilibre en fonction des paramètres du jeu, en particulier lorsque les firmes ne bénéficient pas des mêmes avantages comparatifs (i.e. réputation conduisant à différents niveaux de rétention des clients, ancienneté des assureurs conduisant à différents stocks en capital) / This thesis aims at explaining interactions among economic agents operating in the retail insurance market. On the one hand, the policyholder is willing to be covered against a risk. To do so, they have to explore the insurance market to purchase a contract in line with their risk perception. On the other hand, insurers compete in a regulated market which imposes capital constraints for shock loss absorption purposes. In between, intermediaries may provide services in order to facilitate interaction between risk-adverse consumers and risk-taker firms. In this context, we analyze economic behaviors of insurance actors through different perspectives. Chapter 1 and 2 both result from original laboratory experiments, conducted through a web-interface especially designed for these studies. Results in Chapter 3 rely on a theoretical model and numerical simulations. Chapter 1 emphasizes on the relationship between honesty and beliefs about honesty of economic agents. According to laboratory results, we show how the uncertainty and the perception of advantageous conditions impact the level of honesty and beliefs about honesty. In general, consumers estimate that intermediaries are more honest than they really are, hence supporting their physical presence in the insurance market. However, intermediary financial incentives are a source of distortion of honesty beliefs: the weaker the level of the incentive, the stronger the deviation anticipations. In Chapter 2, we shed light on the dilemma faced by insurance purchasers under a multichannel distribution. Should the consumer, themselves, choose from a large set of insurance policies, or rather delegate a part of their decision to a more or less honest intermediary? Using experimental approaches, including exogenous search costs, we show that obfuscation and beliefs about intermediary honesty are the main determinants of individual choices. We also find that obfuscation and intermediaries’ deviation are the main sources of inefficiency in decision-making, especially regarding the features of the insurance contracts chosen by consumers. Our identification of the focal point effect supports the importance of the price level on purchasing decisions rather than the risk environment or the coverage level. The introduction of search costs in the exploration process, as well as the heterogeneity of beliefs about honesty, justify multichannel distribution strategies adopted by insurers. An analysis of insurer price competition with a repeated one-period non-cooperative game is conducted in Chapter 3, where both insurer losses and consumer behaviors are stochastic. Because of regulatory obligations, we consider a solvency constraint when computing Nash-Equilibrium. We determine the sensitivity of the premium equilibrium with respect to the parameters, especially when firms do not benefit from same competitive advantages (i.e. reputation effect leading to differences in consumers inertia or market seniority leading to differences in capital stock). We also study insurers’ market share in response to the entry of new insurer undercutting prices but dealing with binding solvency constraints
24

Criptografia por ofuscamento de sinais em camada f?sica

Tafas J?nior, Ricardo Fialho 16 December 2016 (has links)
Submitted by SBI Biblioteca Digital (sbi.bibliotecadigital@puc-campinas.edu.br) on 2017-02-01T12:51:11Z No. of bitstreams: 1 Ricardo FialhoTafas Junior.pdf: 1902411 bytes, checksum: fc7842d9f339a60c5d0842dad71af8e3 (MD5) / Made available in DSpace on 2017-02-01T12:51:11Z (GMT). No. of bitstreams: 1 Ricardo FialhoTafas Junior.pdf: 1902411 bytes, checksum: fc7842d9f339a60c5d0842dad71af8e3 (MD5) Previous issue date: 2016-12-16 / Pontif?cia Universidade Cat?lica de Campinas ? PUC Campinas / There is a growing need to ensure information security in telecommunications systems. However, currently, most cryptographic techniques protect only the message and do not prevent the capture of the transmitted symbols, which could compromise the security of the information. Therefore, a new cryptographic technique is proposed in this work which obfuscates the signal in the physical layer, making eavesdropping more difficult. First of all, prior to transmission, a change of basis operation is applied on the signal and, then, an obfuscation operation is performed on the base-changed signal. Afterwards, the obfuscated signal is returned to the initial base and it is ready for transmission. On the receiver side, a basis change is performed again and the de-obfuscation operation is applied, followed by an operation to return the signal to its original base. This work evaluated the bit error rate due to wrong key application and the maximum code breaking time to assess the technique. In addition, to the application in data communication and information security systems, the technique can be applied to data buses to prevent product cloning. / Existe uma necessidade crescente em garantir a seguran?a da informa??o em sistemas de telecomunica??es. Contudo, atualmente, a maioria das t?cnicas de criptografia protege apenas a mensagem, n?o impedindo a captura do sinal correspondente aos s?mbolos transmitidos, o que pode comprometer a seguran?a da informa??o. Em fun??o disso, neste trabalho, prop?e-se uma nova t?cnica criptogr?fica, que promove o ofuscamento dos sinais na camada f?sica, dificultando a??es de espionagem. Primeiramente, antes da transmiss?o, aplica-se uma opera??o de mudan?a de base sobre o sinal e, em seguida, uma opera??o de ofusca??o sobre o sinal modificado. Na sequ?ncia, retorna-se ? base inicial e o sinal ofuscado est? pronto para transmiss?o. Na detec??o, executa-se novamente a mudan?a de base, aplica-se a opera??o de desofusca??o, seguida da opera??o para retornar ? descri??o do sinal ? base original. Este trabalho estimou a taxa de erro de bit por uso de chave errada e o tempo m?ximo de quebra do c?digo para avaliar a t?cnica. Al?m da aplica??o em sistemas de telecomunica??es, a t?cnica pode ser aplicada em barramentos de dados, para evitar roubo de software ou firmware, prevenindo clonagem de produtos.
25

Årsredovisningen, ett objektivt informationsdokument eller ett marknadsföringsverktyg? : En kvantitativ studie om läsbarheten i svenska börsnoterade företags årsredovisningar / The annual report, an objective information document or a marketing tool? : A quantitative study on the readability in Swedish listed corporations’ annual reports

Ceder, Felicia, Ahlmén, Olivia January 2018 (has links)
Bakgrund Årsredovisningens berättande delar utgör numera majoriteten av årsredovisningen. De berättande delarna hjälper läsaren att tolka den finansiella informationen. Därmed är läsbarheten i de berättande delarna viktig för årsredovisningens användbarhet. Tidigare studier har kommit fram till att företag medvetet försämrar årsredovisningens läsbarhet för att dölja skadlig information och därigenom vilseleda läsaren. Syfte Studiens syfte är att förklara variation i läsbarhet mellan svenska börsnoterade företags årsredovisningar. Metod Denna kvantitativa studie tar sin utgångspunkt i ett eklektiskt och deduktivt angreppssätt där både läsbarhets- och redovisningsteorier ligger till grund för hypotesutvecklingen. Studien utgår från en tvärsnittsdesign där studiens empiriska material utgörs av sekundärdata som är hämtad från företags årsredovisningar. Variation i årsredovisningars läsbarhet analyseras med multipel linjär regression. Slutsats Studiens resultat visar att det finns ett starkt positivt samband mellan lönsamhet och läsbarhet och således har mindre lönsamma företag en lägre läsbarhet i sina årsredovisningar. Resultatet påvisar även att det förekommer svaga skillnader i årsredovisningars läsbarhet mellan olika branscher. Vidare indikerar analysen att större företag skriver längre texter och därigenom mer svårläst. / Introduction Nowdays the narrative parts are the majority of the annual report. The narrative parts help the reader to interpret the financial information. Thus, the readability is important for the usefulness of the annual report. Prior research has found that corporations strategically use the language as a tool to hide information and to obfuscate the reader. Purpose The purpose of this study is to explain variation in readability between Swedish listed corporations’ annual reports. Method This quantitative study is based on an eclectical and deductive approach where both theories of readability and accounting theories have formulated the hypotheses. A cross-sectional design has been used and the study's empirical data consist of secondary data, derived from annual reports. Variation in annual reports readability has been analysed by multiple linear regression. Conclusion The result shows that there is a strong positive correlation between profitability and readability, thus less profitable corporations have lower readability in their annual reports. The result also shows that there are weak differences in the annual reports' readability between different industries. Furthermore, the analysis indicates that larger companies write longer texts and thus more difficult.
26

Robust and efficient malware analysis and host-based monitoring

Sharif, Monirul Islam 15 November 2010 (has links)
Today, host-based malware detection approaches such as antivirus programs are severely lagging in terms of defense against malware. Two important aspects that the overall effectiveness of malware detection depend on are the success of extracting information from malware using malware analysis to generate signatures, and then the success of utilizing these signatures on target hosts with appropriate system monitoring techniques. Today's malware employ a vast array of anti-analysis and anti-monitoring techniques to deter analysis and to neutralize antivirus programs, reducing the overall success of malware detection. In this dissertation, we present a set of practical approaches of robust and efficient malware analysis and system monitoring that can help make malware detection on hosts become more effective. First, we present a framework called Eureka, which efficiently deobfuscates single-pass and multi-pass packed binaries and restores obfuscated API calls, providing a basis for extracting comprehensive information from the malware using further static analysis. Second, we present the formal framework of transparent malware analysis and Ether, a dynamic malware analysis environment based on this framework that provides transparent fine-(single instruction) and coarse-(system call) granularity tracing. Third, we introduce an input-based obfuscation technique that hides trigger-based behavior from any input-oblivious analyzer. Fourth, we present an approach that automatically reverse-engineers the emulator and extracts the syntax and semantics of the bytecode language, which helps constructing control-flow graphs of the bytecode program and enables further analysis on the malicious code. Finally, we present Secure In-VM Monitoring, an approach of efficiently monitoring a target host while being robust against unknown malware that may attempt to neutralize security tools.
27

Transformation de programme et protection de la propriété intellectuelle - préparation, intégration et vérification

Grenier, Christophe 01 October 2013 (has links) (PDF)
Dans le domaine de la Défense, les contrats export s'accompagnent souvent de transferts de technologie. Un compromis est donc nécessaire entre la protection de la propriété industrielle, celle du secret national et les demandes client. Nous étudierons dans ce contexte et au sein de DCNS les transformations de sécurisation de programme, principalement l'obfuscation et le watermarking. Nous présenterons ces transformations et les principaux résultats théoriques qui les concernent, ainsi que leur adéquation au besoin de sécurité. Nous étudierons la formalisation et la mise en oeuvre des principales techniques connues de transformations. Celles-ci ont pour objectif de rendre diffcile la rétro-ingénierie tout en préservant les fonctionnalités et les performances des systèmes. Nous aborderons les grandes familles existantes et leur implémentation à travers le bytecode Java. Ensuite, nous étudierons l'intégration de ces techniques dans le cycle de développement d'un logiciel complexe. Un premier focus sera effectué sur la mise en oeuvre de certaines techniques de transformation où leurs limites seront exhibées et des pistes d'amélioration proposées. Nous présenterons l'outillage réalisé pour cette analyse et les perspectives d'utilisation envisagées. Enfin, nous présenterons les mécanismes déployés en amont de la transformation permettant d'intégrer au plus tôt la gestion des contraintes et en aval pour vérifier que les techniques utilisées sont conformes à celles demandées afin de renforcer la confiance dans les transformations effectuées.
28

Recherche de similarité dans du code source

Chilowicz, Michel 25 November 2010 (has links) (PDF)
La duplication de code source a de nombreuses origines : copie et adaptation inter-projets ou clonage au sein d'un même projet. Rechercher des correspondances de code copié permet de le factoriser dans un projet ou de mettre en évidence des situations de plagiat. Nous étudions des méthodes statiques de recherche de similarité sur du code ayant potentiellement subi des opérations d'édition telle que l'insertion, la suppression, la transposition ainsi que la factorisation et le développement de fonctions. Des techniques d'identification de similarité génomique sont examinées et adaptées au contexte de la recherche de clones de code source sous forme lexemisée. Après une discussion sur des procédés d'alignement de lexèmes et de recherche par empreintes de n-grams, est présentée une méthode de factorisation fusionnant les graphes d'appels de fonctions de projets au sein d'un graphe unique avec introduction de fonctions synthétiques exprimant les correspondances imbriquées. Elle utilise des structures d'indexation de suffixes pour la détermination de facteurs répétés. Une autre voie d'exploration permettant de manipuler de grandes bases indexées de code par arbre de syntaxe est abordée avec la recherche de sous-arbres similaires par leur hachage et leur indexation selon des profils d'abstraction variables. Des clones exacts de sous-arbres de forte proximité dans leurs arbres d'extraction peuvent alors être consolidés afin d'obtenir des correspondances approchées et étendues. En amont et en aval de la recherche de correspondances, des métriques de similarité sont définies afin de préselectionner les zones d'examen, affiner la recherche ou mieux représenter les résultats
29

Context-sensitive analysis of x86 obfuscated executables

Boccardo, Davidson Rodrigo [UNESP] 09 October 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:32Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-10-09Bitstream added on 2014-06-13T18:40:52Z : No. of bitstreams: 1 boccardo_dr_dr_ilha.pdf: 1178776 bytes, checksum: cdd885f0beff962757e3b9de59ce0832 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Ofusca c~ao de c odigo tem por nalidade di cultar a detec c~ao de propriedades intr nsecas de um algoritmo atrav es de altera c~oes em sua sintaxe, entretanto preservando sua sem antica. Desenvolvedores de software usam ofusca c~ao de c odigo para defender seus programas contra ataques de propriedade intelectual e para aumentar a seguran ca do c odigo. Por outro lado, programadores maliciosos geralmente ofuscam seus c odigos para esconder comportamento malicioso e para evitar detec c~ao pelos anti-v rus. Nesta tese, e introduzido um m etodo para realizar an alise com sensitividade ao contexto em bin arios com ofuscamento de chamada e retorno de procedimento. Para obter sem antica equivalente, estes bin arios utilizam opera c~oes diretamente na pilha ao inv es de instru c~oes convencionais de chamada e retorno de procedimento. No estado da arte atual, a de ni c~ao de sensitividade ao contexto est a associada com opera c~oes de chamada e retorno de procedimento, assim, an alises interprocedurais cl assicas n~ao s~ao con aveis para analisar bin arios cujas opera c~oes n~ao podem ser determinadas. Uma nova de ni c~ao de sensitividade ao contexto e introduzida, baseada no estado da pilha em qualquer instru c~ao. Enquanto mudan cas em contextos a chamada de procedimento s~ao intrinsicamente relacionadas com transfer encia de controle, assim, podendo ser obtidas em termos de caminhos em um grafo de controle de uxo interprocedural, o mesmo n~ao e aplic avel para mudan cas em contextos a pilha. Um framework baseado em interpreta c~ao abstrata e desenvolvido para avaliar contexto baseado no estado da pilha e para derivar m etodos baseado em contextos a chamada de procedimento para uso com contextos baseado no estado da pilha. O metodo proposto n~ao requer o uso expl cito de instru c~oes de chamada e retorno de procedimento, por em depende do... / A code obfuscation intends to confuse a program in order to make it more di cult to understand while preserving its functionality. Programs may be obfuscated to protect intellectual property and to increase security of code. Programs may also be obfuscated to hide malicious behavior and to evade detection by anti-virus scanners. We introduce a method for context-sensitive analysis of binaries that may have obfuscated procedure call and return operations. These binaries may use direct stack operators instead of the native call and ret instructions to achieve equivalent behavior. Since de nition of context-sensitivity and algorithms for context-sensitive analysis has thus far been based on the speci c semantics associated to procedure call and return operations, classic interprocedural analyses cannot be used reliably for analyzing programs in which these operations cannot be discerned. A new notion of context-sensitivity is introduced that is based on the state of the stack at any instruction. While changes in calling-context are associated with transfer of control, and hence can be reasoned in terms of paths in an interprocedural control ow graph (ICFG), the same is not true for changes in stackcontext. An abstract interpretation based framework is developed to reason about stackcontext and to derive analogues of call-strings based methods for the context-sensitive analysis using stack-context. This analysis requires the knowledge of how the stack, rather the stack pointer, is represented and on the knowledge of operators that manipulate the stack pointer. The method presented is used to create a context-sensitive version of Venable et al.'s algorithm for detecting obfuscated calls. Experimental results show that the contextsensitive version of the algorithm generates more precise results and is also computationally more e cient than its context-insensitive counterpart.
30

Reverzní inženýrství na platformách Java a Android / Reverse engineering of platforms Java and Android

Žák, Josef January 2016 (has links)
This thesis deals with reverse engineering of Android and Java. It contains a description of existing tools and techniques, including techniques of defense. The first part is focused on available research about the topic. The next part discusses usage of reverse engineering in software development. The next chapters describe Android operating system and concept of a virtual machine on both platforms. Both kinds of architectures are compared (register-based vs stack-based machine). Core of the work is focused on static analysis (content of APK file, disassembling, decompilation). Available decompilers of class and dex files are compared. Testing is made with various versions of Java. The final chapter contains techniques and tools of defense against reverse engineering including a description of pros and cons. Two popular obfuscators are tested (Proguard, DashO).

Page generated in 0.4817 seconds