Spelling suggestions: "subject:"méthodes dde"" "subject:"méthodes dee""
291 |
Measurement of discontinuous drug exposure in large healthcare databases / Méthodes de mesure de l’exposition médicamenteuse discontinue à partir des grandes bases de données en santéPalmaro, Aurore 20 January 2017 (has links)
Le contexte international de la pharmacoépidémiologie, marqué par la mise en œuvre d’un nombre croissant d’études multi-sources, a fait émerger un certain nombre de questionnements autour de la gestion de données conflictuelles ou de l’impact des choix méthodologiques sur les résultats.Accroître la confiance dans ces études observationnelles et renforcer leur crédibilité face aux données issues des essais cliniques représente un enjeu majeur, qui dépend étroitement de la robustesse des conclusions produites. Dans ce domaine, la mesure de l’exposition médicamenteuse revêt donc une importance toute particulière, tant pour des études portant sur l’estimation d’un risque ou d’un critère d’efficacité, que lors de la description des modalités d’utilisation en vie réelle. L’exposition médicamenteuse reste un phénomène complexe qui se caractérise la plupart du temps par des cycles discontinus, marqués par des évolutions de doses et la présence de médicaments concomitants. Compte tenu des caractéristiques pharmacodynamiques et pharmacocinétiques / The multinational context of pharmacoepidemiology, and the resulting increased number ofmulti-sources studies have generated concerns in relation with conflicting results and the question of the impact of methodological choices on study results. Increasing the confidence in the conclusions derived from these observational studies is a crucial issue, which is closely related to the robustness of the evidence produced. In this area, impact of drug exposure measurement and risk window might be crucial.Drug exposure is mostly characterized by discontinuous episodes, marked by changes in doses and presence of concomitant medications. Considering the pharmacokinetic and pharmacodynamics characteristics specific to each individual drug, the way in which the drug exposure is presented is of great importance. However, methods used for handling drug exposure episodes in electronic healthcare databases are varying widely according studies. However, the impact of these methods
|
292 |
Assisted design and analysis of attack trees / Assistance à la conception et l’analyse d’arbres d’attaqueAudinot, Maxime 17 December 2018 (has links)
En analyse de risques, les arbres d’attaque sont utilisés pour évaluer les menaces sur un système. Les méthodes formelles permettent leur analyse quantitative et leur synthèse, mais les propriétés exprimant la qualité des arbres d’attaque par rapport au système n’ont pas été formalisées. Dans ce document, nous définissons un nouveau cadre formel pour les arbres d’attaque prenant en compte un modèle opérationnel du système, et dotant les arbres d’une sémantique de chemins. Nous définissons les propriétés de correction des raffinements, et étudions leurs complexités. A partir d’une attaque optimale dans un modèle de système quantitatif, nous guidons la conception d’un arbre d’attaque, en indiquant ses feuilles qui contribuent à l’attaque optimale considérée. / In risk analysis, attack trees are used to assess threats to a system. Formal methods allow for their quantitative analysis and synthesis, but the properties expressing the quality of the attack trees with respect to the system have not been formalized. In this document, we define a new formal framework for attack trees that takes an operational model of the system into account, and provides the trees with a path semantics. We define the correctness properties of refinements, and study their computational complexity. Given an optimal attack in a quantitative system model, we guide the design of a attack tree, indicating its leaves that contribute to considered the optimal attack.
|
293 |
Calcul numérique de la réponse acoustique d'un aubage soumis à un sillage turbulent / Numerical calculation of the acoustic response of a blade-row impinged by a turbulent wakeClair, Vincent 26 November 2013 (has links)
Le bruit généré par l'impact du sillage de la soufflante avec les aubes du redresseur est une source prédominante des turboréacteurs en conditions d'approche, et la composante à large bande contribue fortement au niveau sonore global. Une méthode numérique basée sur un code CAA résolvant les équations d Euler est développée dans cette thèse afin d'estimer le bruit d'interaction entre un sillage turbulent et un aubage de géométrie quelconque. Le sillage amont est modélisé à l'aide d'une méthode stochastique supposant un spectre de turbulence homogène isotrope et une représentation spatiale simplifiée du champ de vitesse. Ces fluctuations de vitesse sont injectées dans le code CAA via des conditions aux limites adéquates. La méthode ainsi mise en place est validée dans un premier temps sur des cas d'interaction avec une plaque plane en comparant les résultats numériques aux solutions du modèle d'Amiet. Un chaınage avec une méthode intégrale est aussi réalisé pour estimer le rayonnement acoustique. La méthode numérique est ensuite mise en œuvre pour simuler la réponse acoustique d'un profil isolé avec un bord d'attaque ondulé conçu et testé dans la soufflerie de l'ISVR dans le cadre du projet européen FLOCON. Enfin, la méthodologie est étendue à des configurations de grilles d'aubes annulaires en conduit. Après une étape de validation sur des cas monofréquentiels issus d'un benchmark CAA, des simulations large bande sont réalisées, tout d'abord sur une configuration de grille d'aubes sans incidence (écoulement axial uniforme) testée en soufflerie au LMFA, puis sur une configuration plus complexe de grille d'aubes non chargée en écoulement tournant proposée par Atassi / Noise generation due to the rotor wakes impinging the stator vanes is a dominant turbofan source at approach conditions, and the broadband noise component is significantly contributing to the overall level. A numerical method based on a CAA code solving the Euler equations is developped in this thesis in order to simulate the interaction noise between a turbulent wake and a vane row without geometry restrictions. The upstream turbulent flow is synthesized using a stochastic approach by considering an homogeneous isotropic turbulence spectrum model and a simplified spatial representation of the velocity field. These velocity gusts are injected in the CAA code by implementing a suited boundary condition. The present methodology is first va- lidated against turbulence-flat plate interaction cases, by comparing the numerical predictions to Amiet model solutions. A chaining with an integral formulation is also performed to assess the acoustic far-field. Then, the method is used to estimate the acoustic response of an isolated airfoil with a wavy leading egde, designed and tested in ISVR wind tunnel in the framework of European FLOCON project. Finally, the computations are extended to ducted annular grid configurations. After a validation step on single-frequency cases described in a CAA benchmark, broadband noise simulations are performed, firstly on a flat-plate annular grid in a uniform axial flow tested in the LMFA wind tunnel, and then on a more complex configuration related to an unloaded grid in a swirling mean flow proposed by Atassi
|
294 |
Transport numérique de quantités géométriques / Numerical transport of geometrics quantitiesLepoultier, Guilhem 25 September 2014 (has links)
Une part importante de l’activité en calcul scientifique et analyse numérique est consacrée aux problèmes de transport d’une quantité par un champ donné (ou lui-même calculé numériquement). Les questions de conservations étant essentielles dans ce domaine, on formule en général le problème de façon eulérienne sous la forme d’un bilan au niveau de chaque cellule élémentaire du maillage, et l’on gère l’évolution en suivant les valeurs moyennes dans ces cellules au cours du temps. Une autre approche consiste à suivre les caractéristiques du champ et à transporter les valeurs ponctuelles le long de ces caractéristiques. Cette approche est délicate à mettre en oeuvre, n’assure pas en général une parfaite conservation de la matière transportée, mais peut permettre dans certaines situations de transporter des quantités non régulières avec une grande précision, et sur des temps très longs (sans conditions restrictives sur le pas de temps comme dans le cas des méthodes eulériennes). Les travaux de thèse présentés ici partent de l’idée suivante : dans le cadre des méthodes utilisant un suivi de caractéristiques, transporter une quantité supplémentaire géométrique apportant plus d’informations sur le problème (on peut penser à un tenseur des contraintes dans le contexte de la mécanique des fluides, une métrique sous-jacente lors de l’adaptation de maillage, etc. ). Un premier pan du travail est la formulation théorique d’une méthode de transport de telles quantités. Elle repose sur le principe suivant : utiliser la différentielle du champ de transport pour calculer la différentielle du flot, nous donnant une information sur la déformation locale du domaine nous permettant de modifier nos quantités géométriques. Cette une approche a été explorée dans dans le contexte des méthodes particulaires plus particulièrement dans le domaine de la physique des plasmas. Ces premiers travaux amènent à travailler sur des densités paramétrées par un couple point/tenseur, comme les gaussiennes par exemple, qui sont un contexte d’applications assez naturelles de la méthode. En effet, on peut par la formulation établie transporter le point et le tenseur. La question qui se pose alors et qui constitue le second axe de notre travail est celle du choix d’une distance sur des espaces de densités, permettant par exemple d’étudier l’erreur commise entre la densité transportée et son approximation en fonction de la « concentration » au voisinage du point. On verra que les distances Lp montrent des limites par rapport au phénomène que nous souhaitons étudier. Cette étude repose principalement sur deux outils, les distances de Wasserstein, tirées de la théorie du transport optimal, et la distance de Fisher, au carrefour des statistiques et de la géométrie différentielle. / In applied mathematics, question of moving quantities by vector is an important question : fluid mechanics, kinetic theory… Using particle methods, we're going to move an additional quantity giving more information on the problem. First part of the work is the theorical formulation for this kind of transport. It's going to use the differential in space of the vector field to compute the differential of the flow. An immediate and natural application is density who are parametrized by and point and a tensor, like gaussians. We're going to move such densities by moving point and tensor. Natural question is now the accuracy of such approximation. It's second part of our work , which discuss of distance to estimate such type of densities.
|
295 |
Sampling and Motion Reconstruction in Three-dimensional X-ray Interventional Imaging / Echantillonnage et reconstruction de mouvement en radiologie interventionnelle tridimensionnelleLanget, Hélène 28 March 2013 (has links)
La pratique clinique a été profondément transformée par l'explosion technologique, ces dernières décades, des techniques d'imagerie médicale. L'expansion de la radiologie interventionnelle a ainsi rendu possible des procédures dites « minimalement invasives » au cours desquelles la thérapie est délivrée directement au niveau de la région pathologique via des micro-outils guidés par imagerie à travers le système vasculaire. Des systèmes dits « C-arm », générant une imagerie rayons X planaire temps-réelle en faible dose, sont utilisés pour le guidage. Ils ont offert plus récemment la possibilité d'une visualisation tridimensionnelle par le biais d'acquisitions tomographiques. C'est dans ce contexte de reconstruction tomographique que s'inscrivent ces travaux de thèse. Ils s'attèlent en particulier à corriger les artefacts de mouvement dus aux variations temporelles des vaisseaux injectés et se concentrent sur un aspect central de la tomographie, à savoir l'échantillonnage angulaire. La théorie du compressed sensing identifie les conditions sous lesquelles des données sous-échantillonnées peuvent être reconstruites en minimisant une fonctionnelle qui combine un terme de fidélité quadratique et une contrainte parcimonieuse. S'appuyant sur cette théorie, un formalisme original de reconstruction est proposé : il repose sur la rétroprojection filtrée itérative, les algorithmes proximaux, la minimisation de normes L1 et l'homotopie. Ce formalisme est ensuite dérivé pour intégrer différentes contraintes spatiales et temporelles. Une telle stratégie s'avère plus performante que la rétroprojection filtrée analytique utilisée dans la pratique clinique, permettant la réduction d'artefacts de mouvement et d'échantillonnage dans des cas cliniques bien identifiés de l'imagerie cérébrale et abdominale. Les résultats obtenus soulignent l'une des principales contributions de ce travail, à savoir : l'importance de l'homotopie, en supplément de la régularisation, pour améliorer la qualité image, un gain indispensable dans le domaine d'applicabilité / Medical imaging has known great advances over the past decades to become a powerful tool for the clinical practice. It has led to the tremendous growth of interventional radiology, in which medical devices are inserted and manipulated under image guidance through the vascular system to the pathology location and then used to deliver the therapy. In these minimally-invasive procedures, X-ray guidance is carried out with C-arm systems through two-dimensional real-time projective low-dose images. More recently, three-dimensional visualization via tomographic acquisition has also become available. This work tackles tomographic reconstruction in the aforementioned context. More specifically, it deals with the correction of motion artifacts that originate from the temporal variations of the contrast-enhanced vessels and thus tackles a central aspect of tomography: data (angular) sampling. The compressed sensing theory identifies conditions under which subsampled data can be recovered through the minimization of a least-square data fidelity term combined with sparse constraints. Relying on this theory, an original reconstruction framework is proposed based on iterative filtered backprojection, proximal splitting, `1-minimization and homotopy. This framework is derived for integrating several spatial and temporal penalties. Such a strategy is shown to outperform the analytical filtered backprojection algorithm that is used in the current clinical practice by reducing motion and sampling artifacts in well-identified clinical cases, with focus on cerebral and abdominal imaging. The obtained results emphasize one of the key contributions of this work that is the importance of homotopy in addition to regularization, to provide much needed image quality improvement in the suggested domain of applicability.
|
296 |
Décomposition de domaine pour la simulation Full-Wave dans un plasma froid / Domain decomposition for full-wave simulation in cold plasmaHattori, Takashi 25 June 2014 (has links)
De nos jours, les centrales nucléaires produisent de l'énergie par des réactions de fission (division d'un noyau atomique lourd en plusieurs noyaux atomiques légers et neutrons). Une alternative serait d'utiliser plutôt la réaction de fusion de noyaux légers de deutérium et de tritium, isotopes de l'hydrogène. Toutefois, cette technique reste encore du domaine de la recherche en physique des plasmas. Les expériences effectuées dans ce domaine ont révélé que les réacteurs à configuration magnétique toroïdale, dite tokamak, sont les plus efficaces. Un mélange gazeux d'isotopes de l'hydrogène appelé plasma est confiné grâce à un champ magnétique produit par des bobines. Ce plasma doit être chauffé à une température très élevée afin que les réactions de fusion aboutissent. De même, un courant intense doit être maintenu dans le plasma afin d'obtenir une configuration magnétique qui permet de le confiner. Une des méthodes les plus attrayantes parmi les techniques connues pour générer du courant est basée sur l'injection d'ondes électromagnétiques dans le plasma à la fréquence proche de la résonance hybride. Cette méthode offre la possibilité de contrôler le profil de densité dans le plasma. Une analyse de type Full-Wave permet alors de modéliser la propagation et l'absorption de l'onde hybride à partir des équations de Maxwell. Le but de cette thèse est de développer une méthode numérique pour cette simulation Full-Wave. Le chapitre 2 présente les équations de propagation d'ondes en mettant en évidence les caractères physiques du plasma. Une approche variationnelle de type mixte augmentée est développée et une analyse mathématique de cette dernière est effectuée dans le chapitre 3. Dans le contexte de la géométrie d'un tokamak, le problème Full-Wave dépendant de trois paramètres peut être réduit en une série de problèmes à deux variables à l'aide de la transformation de Fourier, ce sera l'objet du chapitre 4. Dans le chapitre 5, la formulation variationnelle obtenue à partir du problème mode par mode est discrétisée en utilisant des éléments finis nodaux de type Taylor-Hood. Le chapitre 6 concerne les méthodes de résolution du système linéaire après discrétisation. À l'aide de différents diagnostics physiques présentés dans le chapitre 7, des résultats de la simulation Full-Wave obtenues à partir d'un code MATLAB sont présentées dans le chapitre 8. Enfin, dans le but de développer une version parallèle de la simulation, le chapitre 9 est consacré à une méthode de décomposition de domaine sans recouvrement associé au système Full-Wave. / In order to generate current in tokamak, we look at plasma heating by electromagnetic waves at the lower hybrid (LH) frequency. For this type of description, one use a ray tracing code but we consider a full-wave one, where dielectric properties are local.Our aim is to develop a finite element numerical method for the full-wave modeling and to apply a domain decomposition method. In this thesis, we have developped a finite element method in a cross section of the tokamak for Maxwell equations solving the time harmonic electric field and a nonoverlapping domain decom- position method for the mixed augmented variational formulation by taking continuity accross the interfaces as constraints
|
297 |
Comptage de points de courbes hyperelliptiques en grande caractéristique : algorithmes et complexité / Counting points on hyperelliptic curves in large characteristic : algorithms and complexityAbelard, Simon 07 September 2018 (has links)
Le comptage de points de courbes algébriques est une primitive essentielle en théorie des nombres, avec des applications en cryptographie, en géométrie arithmétique et pour les codes correcteurs. Dans cette thèse, nous nous intéressons plus particulièrement au cas de courbes hyperelliptiques définies sur des corps finis de grande caractéristique $p$. Dans ce cas de figure, les algorithmes dérivés de ceux de Schoof et Pila sont actuellement les plus adaptés car leur complexité est polynomiale en $\log p$. En revanche, la dépendance en le genre $g$ de la courbe est exponentielle et se fait cruellement sentir même pour $g=3$. Nos contributions consistent principalement à obtenir de nouvelles bornes pour la dépendance en $g$ de l'exposant de $\log p$. Dans le cas de courbes hyperelliptiques, de précédents travaux donnaient une borne quasi-quadratique que nous avons pu ramener à linéaire, et même constante dans le cas très particuliers de familles de courbes dites à multiplication réelle (RM). En genre $3$, nous avons proposé un algorithme inspiré de ceux de Schoof et de Gaudry-Harley-Schost dont la complexité, en général prohibitive, devient très raisonnable dans le cas de courbes RM. Nous avons ainsi pu réaliser des expériences pratiques et compter les points d'une courbe hyperelliptique de genre $3$ pour un $p$ de 64 bits / Counting points on algebraic curves has drawn a lot of attention due to its many applications from number theory and arithmetic geometry to cryptography and coding theory. In this thesis, we focus on counting points on hyperelliptic curves over finite fields of large characteristic $p$. In this setting, the most suitable algorithms are currently those of Schoof and Pila, because their complexities are polynomial in $\log q$. However, their dependency in the genus $g$ of the curve is exponential, and this is already painful even in genus 3. Our contributions mainly consist of establishing new complexity bounds with a smaller dependency in $g$ of the exponent of $\log p$. For hyperelliptic curves, previous work showed that it was quasi-quadratic, and we reduced it to a linear dependency. Restricting to more special families of hyperelliptic curves with explicit real multiplication (RM), we obtained a constant bound for this exponent.In genus 3, we proposed an algorithm based on those of Schoof and Gaudry-Harley-Schost whose complexity is prohibitive in general, but turns out to be reasonable when the input curves have explicit RM. In this more favorable case, we were able to count points on a hyperelliptic curve defined over a 64-bit prime field
|
298 |
Schémas numériques adaptatifs pour les équations de Vlasov-Poisson / Adaptive numerical schemes for Vlasov-Poisson equationsMadaule, Éric 04 October 2016 (has links)
Le système d'équations de Vlasov-Poisson est un système très connu de la physique des plasmas et un enjeu majeur des futures simulations. Le but est de développer des schémas numériques utilisant une discrétisation par la méthode Galerkin discontinue combinée avec une résolution en temps semi-Lagrangienne et un maillage adaptatif basé sur l'utilisation des multi-ondelettes. La formulation Galerkin discontinue autorise des schémas d'ordres élevés avec des données locales. Cette formulation a fait l'objet de nombreuses publications, tant dans le cadre eulérien par Ayuso de Dios et al., Rossmanith et Seal, etc. que dans le cadre semi-lagrangien par Quo, Nair et Qiu, Qiu et Shu et Bokanowski et Simarta, etc. On utilise les multi-ondelettes pour l'adaptativité (et plus précisément pour la décomposition multi-échelle de la fonction de distribution). Les multi-ondelettes ont été largement étudiées par Alpert et al. pendant les années 1990 et au début des années 2000. Des travaux combinant la résolution multi-échelle avec les méthodes Galerkin discontinues ont fait l'objet de publications par Müller et al. en 2014 pour les lois de conservation hyperboliques dans le contexte des éléments finis. Besse, Latu, Ghizzo, Sonnendrücker et Bertrand ont présenté les avantages d'un maillage adaptatif dans le contexte de Vlasov-Poisson relativiste en utilisant des ondelettes à support large. La combinaison de la méthode Galerkin discontinue avec l'utilisation des multi-ondelettes ne requière en revanche qu'un support compact. Bien que la majorité de la thèse soit présentée dans un espace des phases 1d × 1v, nous avons obtenus quelques résultats dans l'espace des phases 2d × 2v. / Many numerical experiments are performed on the Vlasov-Poisson problem since it is a well known system from plasma physics and a major issue for future simulation of large scale plasmas. Our goal is to develop adaptive numerical schemes using discontinuous Galerkin discretisation combined with semi-Lagrangian description whose mesh refinement based on multi-wavelets. The discontinuous Galerkin formulation enables high-order accuracy with local data for computation. It has recently been widely studied by Ayuso de Dioset al., Rossmanith et Seal, etc. in an Eularian framework, while Guo, Nair and Qiu or Qiu and Shu or Bokanowski and Simarta performed semi-Lagrangian time resolution. We use multi-wavelets framework for the adaptive part. Those have been heavily studied by Alpert et al. during the nineties and the two thousands. Some works merging multi-scale resolution and discontinuous Galerkin methods have been described by Müller and his colleagues in 2014 for non-linear hyperbolic conservation laws in the finite volume framework. In the framework of relativistic Vlasov equation, Besse, Latu, Ghizzo, Sonnendrücker and Bertrand presented the advantage of using adaptive meshes. While they used wavelet decomposition, which requires large data stencil, multi-wavelet decomposition coupled to discontinuous Galerkin discretisation only requires local stencil. This favours the parallelisation but, at the moment, semi-Lagrangian remains an obstacle to highly efficient distributed memory parallelisation. Although most of our work is done in a 1d × 1v phase space, we were able to obtain a few results in a 2d × 2v phase space.
|
299 |
Neural-Symbolic Learning for Semantic Parsing / Analyse sémantique avec apprentissage neuro-symboliqueXiao, Chunyang 14 December 2017 (has links)
Notre but dans cette thèse est de construire un système qui réponde à une question en langue naturelle (NL) en représentant sa sémantique comme une forme logique (LF) et ensuite en calculant une réponse en exécutant cette LF sur une base de connaissances. La partie centrale d'un tel système est l'analyseur sémantique qui transforme les questions en formes logiques. Notre objectif est de construire des analyseurs sémantiques performants en apprenant à partir de paires (NL, LF). Nous proposons de combiner des réseaux neuronaux récurrents (RNN) avec des connaissances préalables symboliques exprimées à travers des grammaires hors-contexte (CFGs) et des automates. En intégrant des CFGs contrôlant la validité des LFs dans les processus d'apprentissage et d'inférence des RNNs, nous garantissons que les formes logiques générées sont bien formées; en intégrant, par le biais d'automates pondérés, des connaissances préalables sur la présence de certaines entités dans la LF, nous améliorons encore la performance de nos modèles. Expérimentalement, nous montrons que notre approche permet d'obtenir de meilleures performances que les analyseurs sémantiques qui n'utilisent pas de réseaux neuronaux, ainsi que les analyseurs à base de RNNs qui ne sont pas informés par de telles connaissances préalables / Our goal in this thesis is to build a system that answers a natural language question (NL) by representing its semantics as a logical form (LF) and then computing the answer by executing the LF over a knowledge base. The core part of such a system is the semantic parser that maps questions to logical forms. Our focus is how to build high-performance semantic parsers by learning from (NL, LF) pairs. We propose to combine recurrent neural networks (RNNs) with symbolic prior knowledge expressed through context-free grammars (CFGs) and automata. By integrating CFGs over LFs into the RNN training and inference processes, we guarantee that the generated logical forms are well-formed; by integrating, through weighted automata, prior knowledge over the presence of certain entities in the LF, we further enhance the performance of our models. Experimentally, we show that our approach achieves better performance than previous semantic parsers not using neural networks as well as RNNs not informed by such prior knowledge
|
300 |
Vérification formelle de protocoles basés sur de courtes chaines authentifiées / Formal verification of protocols based on short authenticated stringsRobin, Ludovic 15 February 2018 (has links)
Les protocoles de sécurité modernes peuvent impliquer un participant humain de façon à ce qu'il compare ou copie de courtes chaines de caractères faisant le pont entre différents appareils. C'est par exemple le cas des protocoles basés sur une authentification à facteur multiples comme les protocoles Google 2 factor ou 3D-Secure.Cependant, de telles chaines de caractères peuvent être sujettes à des attaques par force brute. Dans cette thèse nous proposons un modèle symbolique qui inclut les capacités de l'attaquant à deviner des secrets faibles et à produire des collisions avec des fonctions de hachage dont de l'application résulte une courte chaine de caractères. Nous proposons une nouvelle procédure de décision pour analyser un protocole (restreint à un nombre borné de sessions) qui se base sur de courtes chaines de caractères. Cette procédure a été intégré dans l'outil AKISS et testé sur les protocoles du standard ISO/IEC 9798-6:2010 / Modern security protocols may involve humans in order to compare or copy short strings betweendifferent devices. Multi-factor authentication protocols, such as Google 2-factor or 3D-Secure are typical examplesof such protocols. However, such short strings may be subject to brute force attacks. In this thesis we propose asymbolic model which includes attacker capabilities for both guessing short strings, and producing collisions whenshort strings result from an application of weak hash functions. We propose a new decision procedure for analyzing(a bounded number of sessions of) protocols that rely on short strings. The procedure has been integrated in theAKISS tool and tested protocols from the ISO/IEC 9798-6:2010 standard
|
Page generated in 0.0595 seconds