• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 5
  • Tagged with
  • 10
  • 10
  • 8
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude de la régulation anti-sens par l’analyse différentielle de données transcriptomiques dans le domaine végétal / Study of the anti-sense regulation by differential analysis of transcriptomic data in plants

Legeay, Marc 12 December 2017 (has links)
Un des problèmes actuels en bio-informatique est de comprendre les mécanismes de régulation au sein d’une cellule ou d’un organisme. L’objectif de la thèse est d’étudier les réseaux de co-expression de gènes chez le pommier avec la particularité d’y intégrer les transcrits anti-sens. Les transcrits anti-sens sont des ARN généralement non-codants, dont les différents modes d’action sont encore mal connus. Dans notre étude exploratoire du rôle des anti-sens, nous proposons d’une part une analyse fonctionnelle différentielle qui met en évidence l’intérêt de l’intégration des données anti-sens en transcriptomique. D’autre part, concernant les réseaux de gènes, nous proposons de limiter l’inférence à un cœur de réseau et nous introduisons alors une méthode d’analyse différentielle permettant de comparer un réseau obtenu à partir de données sens avec un réseau contenant des données sens et anti-sens. Nous introduisons ainsi la notion de gènes AS-impacté, qui permet d’identifier des gènes dont les interactions au sein d’un réseau de co-expression sont fortement impactées par la prise en compte de transcrits anti-sens. Pour les données pommier que nous avons étudiées et qui concerne la maturation des fruits et leur conservation à basse température, l’interprétation biologique des résultats de notre analyse différentielle fournit des pistes pertinentes pour une étude expérimentale plus ciblée de gènes ou de voies de signalisation dont l’importance pourrait être sous-estimée sans la prise en compte des données anti-sens. / A challenging task in bioinformatics is to decipher cell regulation mechanisms. The objective of this thesis is to study gene networks from apple data with the particularity to integrate anti-sense transcription data. Anti-sense transcripts are mostly non coding RNAs and their different roles in the cell are still not well known. In our study, to explore the role of anti-sense transcripts, we first propose a differential functional analysis that highlights the interest of integrating anti-sense data into a transcriptomic analysis. Then, regarding gene networks, we propose to focus on inference of a core network and we introduce a new differential analysis method that allows to compare a sense network with a sense and anti-sense network. We thus introduce the notion of AS-impacted genes, that allows to identify genes that are highly co-expressed with anti-sense transcripts. We analysed apple data related to ripening of fruits stored in cold storage; biological interpretation of the results of our differential analysisprovides some promising leads to a more targeted experimental study of genes or pathways, which role could be underestimated without integration of anti-sense data.
2

Analyse statistique de données biologiques à haut débit / Statistical analysis of high-throughput biological data

Aubert, Julie 07 February 2017 (has links)
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique. / The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects.
3

Identification and isolation of plant promoters induced by thiocyanate

Nasr, Zeina January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
4

Modélisation statistique pour la recherche de gènes différentiellement exprimés: modèles de variance-covariance, analyse séquentielle et méta-analyse

Marot, Guillemette 09 September 2009 (has links) (PDF)
Les puces à ADN permettent d'étudier simultanément l'expression de plusieurs milliers de gènes à partir de peu d'individus biologiques. Trois approches sont considérées dans cette thèse pour résoudre les problèmes de sensibilité dans la recherche de gènes différentiellement exprimés: la modélisation des variances-covariances, l'analyse séquentielle et la méta-analyse. La première et la troisième partie reposent principalement sur des approches dites de 'shrinkage' qui estiment les valeurs de chaque gène à partir de l'information provenant de l'ensemble des gènes. En diminuant le nombre de paramètres à estimer, elles permettent d'augmenter la sensibilité. La modélisation des variances se révèle particulièrement utile dans le cas d'expériences avec de petits échantillons. La modélisation des covariances est quant à elle particulièrement pertinente pour les études de suivi longitudinal où les mesures sont répétées sur les mêmes individus au cours du temps. Côté analyse séquentielle, la sensibilité est étudiée en tant que règle d'arrêt. On cherche alors à arrêter une expérience en cours dès que ce critère dépasse un certain seuil, afin d'en diminuer les coûts. La méta-analyse est ensuite étudiée dans un contexte beaucoup plus général que celui de l'analyse séquentielle où on combinait les analyses intermédiaires. Elle permet de gagner de la sensibilité en regroupant des résultats d'études individuelles qui ne sont pas comparables directement mais qui répondent à une même question biologique. La méta-analyse est abordée à la fois sous l'angle fréquentiste (combinaison de grandeurs des effets ou combinaison de p-values) et sous l'angle bayésien.
5

Identification and isolation of plant promoters induced by thiocyanate

Nasr, Zeina January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
6

Développement d’une méthode de déconvolution pharmacophorique pour la découverte accélérée d’antipaludiques chez les Rhodophytes / Development of a pharmacophoric deconvolution method to accelerate the antimalarial discovery from Rhodophyta

Margueritte, Laure 21 September 2018 (has links)
L’apparition de P. falciparum résistants aux CTAs est un problème majeur en Asie du Sud-Est. Il est nécessaire de rechercher des molécules présentant des mécanismes d’actions nouveaux. Une cible d’intérêt est l’apicoplaste, un organite de Plasmodium issu d’une endosymbiose avec une algue rouge. Les algues rouges pourraient présenter une source privilégiée de nouvelles molécules antipaludiques ciblant notamment les voies de biosynthèse apicoplastique. Cette thèse porte sur l’identification de ces métabolites secondaires bioactifs via le développement d’une nouvelle stratégie analytique. Un programme informatique nommé Plasmodesma a été créé et permet l’analyse différentielle de manière automatique de spectres RMN 2D 1H-1H et 1H-13C. Les molécules actives peuvent ensuite être isolées et identifiées par HPLC-SPE-RMN. L’activité antipaludique mise en évidence dans les algues rouges étudiées serait due à la présence de molécules de classes chimiques différentes dont des stérols. / Malaria is responsible for 445 000 deaths in 2016. The emergence and the spread of resistant P. falciparum to artemisinin-based combinations is a major health problem in South-East Asia. Research must continue to find compounds with a novel mechanism of action. The apicoplast is an interesting target. It is a Plasmodium organelle derived from a secondary endosymbiosis with a red alga. Red algae could be a special source of new antiplasmodial compounds targeting the isoprenoid biosynthesis pathway in the apicoplast. This thesis focuses on bioactive secondary metabolites identification via a new analytical strategy. A computer program called Plasmodesma was created and achieves an automatic differential analysis of 1H-1H and 1H-13C 2D NMR spectra. Bioactive compounds are isolated and identified by hyphenated HPLC-SPE-NMR. The presence of different classes of compounds including sterols could explain the antiplasmodial activity in studied the red algae species.
7

Analyse Sécuritaire des Émanations Électromagnétiques des Circuits Intégrés / Security Analysis of Integrated Circuit radiation

Dehbaoui, Amine 18 January 2011 (has links)
Le développement de la société de l'information et de la monnaie virtuelle, a soulevé de nouveaux problèmes aux communautés de la sécurité et du circuit intégré, faisant devenir la cryptologie un outil incontournable permettant de répondre aux exigences sécuritaires telles que l'identification, l'authentification ou la confidentialité. L'intégration des primitives cryptographiques dans différents dispositifs électroniques est largement répandue aujourd'hui dans le domaine des communications, des services financiers, des services gouvernementaux ou de la PayTV. Au premier rang de ces dispositifs, figure la carte à puce. D'après un rapport publié en août 2010, IMS Research prévoit que le marché de la carte à puce atteindra les 5.8 milliards d'unités vendues en fin d'année. La grande majorité est utilisée dans les télécommunications (carte SIM) et les services bancaires. La carte à puce incorpore un circuit intégré qui peut être, soit un processeur dédié aux calculs cryptographiques, soit seulement de la mémoire non-volatile ou les deux. Ces circuits intégrés manipulent et contiennent donc des secrets comme les clefs secrètes ou privées utilisées par les algorithmes de cryptographie symétriques ou asymétriques. Ces clefs doivent donc, rester absolument confidentielles et intègres afin de garantir la chaîne de sécurité. Par conséquent la robustesse des cartes à puces aux attaques cryptographiques est cruciale. En effet, les attaques sur les circuits intégrés sont aujourd'hui très performantes. Elles peuvent être classées selon trois grandes familles : invasives, semi-invasives et non-invasives. 1- Les attaques invasives sont des attaques menées en général par des experts et requièrent du matériel spécifique. 2- Les attaques semi-invasives, famille d'attaques récemment introduite par l'équipe de Ross Anderson, dont le principe est de décapsuler le package contenant le circuit, afin de se positionner le plus proche possible de la surface, sans pour autant en détériorer les fonctionnalités. 3- Les attaques non-invasives ne nécessitent aucune préparation préalable du dispositif soumis aux attaques. Elles consistent à espionner les phénomènes physiques engendrés par la manipulation des données et notamment les clefs secrètes. Les attaques non-invasives peuvent être considérées comme les plus dangereuses, dans la mesure où ce type d'attaque peut être réalisé sans contact avec le circuit. En effet, pendant l'utilisation d'appareils électroniques, les circuits qui les composent sont soumis à des variations de courant et de tension. Ces variations génèrent des ondes électromagnétiques qui se propagent dans le voisinage du circuit. Ces émanations présentent une corrélation avec des informations censées être stockées dans la puce de façon sécurisée (exemple: la clef secrète d'une carte bancaire utilisée pour l'authentification). Plusieurs attaques dites par canaux auxiliaires, et basées sur ces fuites électromagnétiques ont été publiées par la communauté scientifique ces dernières années. Cette thèse a pour objectifs: (a) comprendre les différentes sources des émanations électromagnétiques des circuits intégrés, et de proposer un flot d'attaque électromagnétique localisée et en champ proche afin de tester la robustesse d'un circuit cryptographique contre les attaques et analyses utilisant le canal électromagnétique, et (b) proposer des contre-mesures afin de contrecarrer ces attaques par analyse de champ électromagnétique. Afin d'atteindre ces objectifs, nous présentons, dans un premier temps, une technique efficace nommée WGMSI (Weighted Global Magnitude Squared Incoherence) pour localiser les positions, au-dessus du circuit cryptographique, qui génèrent les émanations électromagnétiques les plus dépendantes des données secrètes. Dans un deuxième temps la WGMSI est utilisée aussi pour améliorer la stabilité et la convergence des différentes attaques électromagnétiques proposées dans la littérature. La suite de la thèse décrit les différentes contre-mesures aux attaques par canaux auxiliaires. En effet, face à ces techniques d'attaques évoluées, il est primordial, de rendre les fonctions cryptographiques implantées dans les circuits intégrés pour la sécurité (confidentialité, authentification, intégrité ... ), inattaquables en un temps raisonnable et ceci même en manipulant des sous-clefs dans des chiffrements par blocs. Pour cela, on se focalisera principalement aux contre-mesures basées sur des logiques différentielles et dynamiques. Ces contre-mesures sont dites par conception, puisqu'elles se situent au niveau des portes logiques qui sont considérées comme les éléments de base pour la conception d'un circuit intégré. Ceci permet une certaine indépendance des algorithmes cryptographiques vis à vis de l'architecture ou de la technologie considérées. Parmi les différentes logiques différentielles et dynamiques, on s'intéressera plus spécifiquement à la logique STTL (Secure Triple Track logic) qui peut être considérée comme une amélioration de la logique double rail, dans la mesure où un troisième rail est ajouté afin de contrecarrer la faiblesse principale de la logique double rail, à savoir l'évaluation anticipée. Enfin, nous présenterons un flot d'implémentation sur FPGA de la logique STTL prouvée robuste aux attaques par analyse de courant, et nous implémenterons un prototype de DES STTL afin de tester sa robustesse aux attaques électromagnétiques localisées en champ proche. / The integration of cryptographic primitives in different electronic devices is widely used today incommunications, financial services, government services or PayTV.Foremost among these devices include the smart card. According to a report published in August 2010, IMS Research forecasts that the smart card market will reach 5.8 billion units sold in this year. The vast majority is used in telecommunications (SIM) and banking.The smart card incorporates an integrated circuit which can be a dedicated processor for cryptographic calculations. Therefore, these integrated circuits contain secrets such as secret or private keys used by the symmetric or asymmetric cryptographic algorithms. These keys must remain absolutely confidential to ensure the safety chain.Therefore the robustness of smart cards against attacks is crucial. These attacks can be classifiedinto three main categories: invasive, semi-invasive and non-invasive.Non-invasive attacks can be considered the most dangerous, since this kind of attack can be achieved without any contact with the circuit.Indeed, while using electronic circuits that compose them are subjected to variations in current and voltage. These variations generate an electromagnetic radiation propagating in the vicinity of the circuit.These radiations are correlated with secret information (eg a secret key used for authentication). Several attacks based on these leakages were published by the scientific community.This thesis aims to: (a) understand the different sources of electromagnetic emanations of integrated circuits, and propose a localized near field attack to test the robustness of a cryptographic circuit and (b) propose counter-measures to these attacks.
8

Algorithmes cryptographiques à base de courbes elliptiques résistant aux attaques par analyse de consommation

Houssain, Hilal 21 December 2012 (has links) (PDF)
Les systèmes de cryptographie à base de courbe elliptique (ECC) ont été adoptés comme des systèmes standardisés de cryptographie à clé publique (PKC) par l'IEEE, ANSI, NIST, SEC et WTLS. En comparaison avec la PKC traditionnelle, comme RSA et ElGamal, l'ECC offre le même niveau de sécurité avec des clés de plus petites tailles. Cela signifie des calculs plus rapides et une consommation d'énergie plus faible ainsi que des économies de mémoire et de bande passante. Par conséquent, ECC est devenue une technologie indispensable, plus populaire et considérée comme particulièrement adaptée à l'implémentation sur les dispositifs à ressources restreintes tels que les réseaux de capteurs sans fil (WSN). Le problème majeur avec les noeuds de capteurs chez les WSN, dès qu'il s'agit d'opérations cryptographiques, est les limitations de leurs ressources en termes de puissance, d'espace et de temps de réponse, ce qui limite la capacité du capteur à gérer les calculs supplémentaires nécessaires aux opérations cryptographiques. En outre, les mises en oeuvre actuelles de l'ECC sur WSN sont particulièrement vulnérables aux attaques par canaux auxiliaires (SCA), en particulier aux attaques par analyse de consommation (PAA), en raison de l'absence de la sécurité physique par blindage, leur déploiement dans les régions éloignées et le fait qu'elles soient laissées sans surveillance. Ainsi, les concepteurs de crypto-processeurs ECC sur WSN s'efforcent d'introduire des algorithmes et des architectures qui ne sont pas seulement résistants PAA, mais également efficaces sans aucun supplément en termes de temps, puissance et espace. Cette thèse présente plusieurs contributions dans le domaine des cryptoprocesseurs ECC conscientisés aux PAA, pour les dispositifs à ressources limitées comme le WSN. Premièrement, nous proposons deux architectures robustes et efficaces pour les ECC conscientisées au PAA. Ces architectures sont basées sur des algorithmes innovants qui assurent le fonctionnement de base des ECC et qui prévoient une sécurisation de l'ECC contre les PAA simples (SPA) sur les dispositifs à ressources limitées tels que les WSN. Deuxièmement, nous proposons deux architectures additionnelles qui prévoient une sécurisation des ECC contre les PAA différentiels (DPA). Troisièmement, un total de huit architectures qui incluent, en plus des quatre architectures citées ci-dessus pour SPA et DPA, deux autres architectures dérivées de l'architecture DPA conscientisée, ainsi que deux architectures PAA conscientisées. Les huit architectures proposées sont synthétisées en utilisant la technologie des réseaux de portes programmables in situ (FPGA). Quatrièmement, les huit architectures sont analysées et évaluées, et leurs performances comparées. En plus, une comparaison plus avancée effectuée sur le niveau de la complexité du coût (temps, puissance, et espace), fournit un cadre pour les concepteurs d'architecture pour sélectionner la conception la plus appropriée. Nos résultats montrent un avantage significatif de nos architectures proposées par rapport à la complexité du coût, en comparaison à d'autres solutions proposées récemment dans le domaine de la recherche.
9

Elliptic curve cryptography algorithms resistant against power analysis attacks on resource constrained devices / Algorithmes cryptographiques à base de courbes elliptiques résistant aux attaques par analyse de consommation

Houssain, Hilal 21 December 2012 (has links)
Les systèmes de cryptographie à base de courbe elliptique (ECC) ont été adoptés comme des systèmes standardisés de cryptographie à clé publique (PKC) par l'IEEE, ANSI, NIST, SEC et WTLS. En comparaison avec la PKC traditionnelle, comme RSA et ElGamal, l'ECC offre le même niveau de sécurité avec des clés de plus petites tailles. Cela signifie des calculs plus rapides et une consommation d'énergie plus faible ainsi que des économies de mémoire et de bande passante. Par conséquent, ECC est devenue une technologie indispensable, plus populaire et considérée comme particulièrement adaptée à l’implémentation sur les dispositifs à ressources restreintes tels que les réseaux de capteurs sans fil (WSN). Le problème majeur avec les noeuds de capteurs chez les WSN, dès qu'il s'agit d’opérations cryptographiques, est les limitations de leurs ressources en termes de puissance, d'espace et de temps de réponse, ce qui limite la capacité du capteur à gérer les calculs supplémentaires nécessaires aux opérations cryptographiques. En outre, les mises en oeuvre actuelles de l’ECC sur WSN sont particulièrement vulnérables aux attaques par canaux auxiliaires (SCA), en particulier aux attaques par analyse de consommation (PAA), en raison de l'absence de la sécurité physique par blindage, leur déploiement dans les régions éloignées et le fait qu’elles soient laissées sans surveillance. Ainsi, les concepteurs de crypto-processeurs ECC sur WSN s'efforcent d'introduire des algorithmes et des architectures qui ne sont pas seulement résistants PAA, mais également efficaces sans aucun supplément en termes de temps, puissance et espace. Cette thèse présente plusieurs contributions dans le domaine des cryptoprocesseurs ECC conscientisés aux PAA, pour les dispositifs à ressources limitées comme le WSN. Premièrement, nous proposons deux architectures robustes et efficaces pour les ECC conscientisées au PAA. Ces architectures sont basées sur des algorithmes innovants qui assurent le fonctionnement de base des ECC et qui prévoient une sécurisation de l’ECC contre les PAA simples (SPA) sur les dispositifs à ressources limitées tels que les WSN. Deuxièmement, nous proposons deux architectures additionnelles qui prévoient une sécurisation des ECC contre les PAA différentiels (DPA). Troisièmement, un total de huit architectures qui incluent, en plus des quatre architectures citées ci-dessus pour SPA et DPA, deux autres architectures dérivées de l’architecture DPA conscientisée, ainsi que deux architectures PAA conscientisées. Les huit architectures proposées sont synthétisées en utilisant la technologie des réseaux de portes programmables in situ (FPGA). Quatrièmement, les huit architectures sont analysées et évaluées, et leurs performances comparées. En plus, une comparaison plus avancée effectuée sur le niveau de la complexité du coût (temps, puissance, et espace), fournit un cadre pour les concepteurs d'architecture pour sélectionner la conception la plus appropriée. Nos résultats montrent un avantage significatif de nos architectures proposées par rapport à la complexité du coût, en comparaison à d'autres solutions proposées récemment dans le domaine de la recherche. / Elliptic Curve Cryptosystems (ECC) have been adopted as a standardized Public Key Cryptosystems (PKC) by IEEE, ANSI, NIST, SEC and WTLS. In comparison to traditional PKC like RSA and ElGamal, ECC offer equivalent security with smaller key sizes, in less computation time, with lower power consumption, as well as memory and bandwidth savings. Therefore, ECC have become a vital technology, more popular and considered to be particularly suitable for implementation on resource constrained devices such as the Wireless Sensor Networks (WSN). Major problem with the sensor nodes in WSN as soon as it comes to cryptographic operations is their extreme constrained resources in terms of power, space, and time delay, which limit the sensor capability to handle the additional computations required by cryptographic operations. Moreover, the current ECC implementations in WSN are particularly vulnerable to Side Channel Analysis (SCA) attacks; in particularly to the Power Analysis Attacks (PAA), due to the lack of secure physical shielding, their deployment in remote regions and it is left unattended. Thus designers of ECC cryptoprocessors on WSN strive to introduce algorithms and architectures that are not only PAA resistant, but also efficient with no any extra cost in terms of power, time delay, and area. The contributions of this thesis to the domain of PAA aware elliptic curve cryptoprocessor for resource constrained devices are numerous. Firstly, we propose two robust and high efficient PAA aware elliptic curve cryptoprocessors architectures based on innovative algorithms for ECC core operation and envisioned at securing the elliptic curve cryptoprocessors against Simple Power Analysis (SPA) attacks on resource constrained devices such as the WSN. Secondly, we propose two additional architectures that are envisioned at securing the elliptic curve cryptoprocessors against Differential Power Analysis (DPA) attacks. Thirdly, a total of eight architectures which includes, in addition to the two SPA aware with the other two DPA awareproposed architectures, two more architectures derived from our DPA aware proposed once, along with two other similar PAA aware architectures. The eight proposed architectures are synthesized using Field Programmable Gate Array (FPGA) technology. Fourthly, the eight proposed architectures are analyzed and evaluated by comparing their performance results. In addition, a more advanced comparison, which is done on the cost complexity level (Area, Delay, and Power), provides a framework for the architecture designers to select the appropriate design. Our results show a significant advantage of our proposed architectures for cost complexity in comparison to the other latest proposed in the research field.
10

Caractérisation physique et chimique des substances à activité thérapeutique : application aux études de profil de stabilité et de préformulation / Physical and chemical characterization of active pharmaceutical ingredients in the framework of preformulation and stability studies

Gana, Inès 21 May 2015 (has links)
Le développement d’un médicament pour une cible thérapeutique donnée passe par plusieurs étapes qui se résument en une étape de criblage, une phase préclinique et plusieurs phases cliniques. Ces étapes permettent de sélectionner une substance active et de démontrer son efficacité thérapeutique et sa sécurité toxicologique. Ces deux critères définissent la qualité du médicament qui, une fois démontrée, doit être garantie pendant toute sa durée de validité. La qualité est évaluée au moyen d’études de stabilité qui sont réalisées d’abord sur la matière première de la substance active au cours de la phase de pré-développement du médicament, ensuite sur le produit fini. La stabilité intrinsèque de la substance active concerne à la fois ses propriétés chimiques et ses propriétés physiques qui sont liées à la nature de la substance. L’étude de stabilité repose d’abord sur la caractérisation de ces propriétés, et ensuite sur l’étude de la sensibilité de la substance à l’égard des facteurs environnementaux pouvant modifier les propriétés intrinsèques de la substance. L’approche adoptée dans ce travail repose d’une part sur l’évaluation de la stabilité chimique c’est à dire de la réactivité chimique des substances à usage pharmaceutique au travers des études de pureté chimique et des études de dégradation forcée de ces substances en solution, et d’autre part, sur l’évaluation de la stabilité physique. Dans ce cadre, l’étude du polymorphisme cristallin revêt une grande importance, tout comme l’aptitude à la formation d’hydrates ou de solvates. Cette étude, basée sur la thermodynamique, consiste pour l’essentiel à construire un diagramme de phases pression-température permettant de définir les domaines de stabilité relative des différentes formes cristallines. Cinq substances actives, existant à l’état solide et entrant dans la composition de médicaments administrés par voie orale, ont été étudiées dans le cadre de ce travail. L’analyse chimique du tienoxolol, présentant un effet anti-hypertenseur, a montré qu’il est très sensible à l’hydrolyse et à l’oxydation. Sept produits de dégradation ont été identifiés pour ce produit dont un schéma probable de fragmentation a été établi. Des diagrammes de phases pression-température ont été construits pour le bicalutamide et le finastéride, médicaments du cancer de prostate, en utilisant une approche topologique basée simplement sur les données disponibles dans la littérature. Cette étude a montré que la relation thermodynamique (énantiotropie ou monotropie) entre les formes cristallines sous conditions ordinaires peut être modifiée en fonction de la température et de la pression. Ce résultat est important pour la production des médicaments car il montre comment une telle information peut être obtenue par des mesures simples et accessibles aux laboratoires de recherche industrielle, sans que ces derniers soient contraints d’expérimenter sous pression. La méthode topologique de construction de diagramme de phases a été validée ensuite en la comparant à une méthode expérimentale consistant à suivre, par analyse thermique, des transitions de phases en fonction de la pression. La méthode expérimentale a été appliquée à deux composés, la benzocaine, anesthésique local, et le chlorhydrate de cystéamine, médicament utilisé pour les cystinoses. Les deux formes étudiées de benzocaine présentent une relation énantiotrope qui se transforme en relation monotrope à haute pression. Une nouvelle forme cristalline (forme III) du chlorhydrate de cystéamine a été découverte au cours de ce travail. La relation thermodynamique entre cette forme III et la forme I est énantiotrope dans tout le domaine de température et de pression. De plus, le chlorhydrate de cystéamine, classé hygroscopique, a fait l’objet d’une étude quantitative de sa sensibilité à l’eau, montrant qu’il devient déliquescent sans formation préalable d’hydrate (...) / The development of a drug for a given therapeutic target requires several steps, which can be summarized by drug screening, a preclinical phase and a number of clinical phases. These steps allow the selection of an active substance and a verification of its therapeutic efficacy and toxicological safety. The latter two criteria define the quality of the drug, which once demonstrated, must be guaranteed throughout its shelf life. Quality is assessed through stability studies that are carried out with the raw material of the active substance (preformulation phase) and with the final product. The intrinsic stability of the active substance depends on its chemical and physical properties and their characterization is the core of the stability studies, which in addition consists of sensitivity studies of the active pharmaceutical ingredient (API) for environmental factors that can modify the intrinsic properties of the substance. The approach presented in this work is based on the one hand on the assessment of the chemical stability, i.e. the reactivity of APIs through chemical purity studies and forced degradation in solution, and on the other hand on the assessment of the physical stability. For the latter, crystalline polymorphism is of great importance, as is the ability of the API to form hydrates or solvates. The study of crystalline polymorphism is based on the construction of pressure-temperature phase diagrams in accordance with thermodynamic requirements leading to the stability condition domains of the different crystalline forms. The stability behavior of five APIs used or meant for oral applications has been studied as part of this work. The chemical analysis of tienoxolol, an antihypertensive drug, has demonstrated its sensitivity for hydrolysis and oxidation. Seven degradation products were identified and patterns of fragmentation have been established. Pressure-temperature phase diagrams have been constructed for bicalutamide and finasteride, drugs against prostate cancer, using a topological approach based on data available in the literature. The study demonstrates that the thermodynamic relationship (enantiotropy or monotropy) between crystalline forms under ordinary conditions can change depending on the pressure. This is important for drug development as it demonstrates how stability information can be obtained by standard laboratory measurements accessible to industrial research laboratories without the necessity to carry out experiments under pressure. The topological approach for the construction of phase diagrams has subsequently been validated by measuring transition temperatures as a function of pressure. Experiments have been carried out with benzocaine, a local anesthetic, and with cysteamine hydrochloride, a drug used against cystinosis. Two crystalline forms were observed in the case of benzocaine. They exhibit an enantiotropic relationship that becomes monotropic at high pressure. For cysteamine hydrochloride, a new crystalline form (form III) was discovered. The thermodynamic relationship between the new form III and the known form I is enantiotropic for the entire temperature and pressure range. Cysteamine hydrochloride’s sensitivity to water has been studied, as it is hygroscopic. It has been demonstrated that it becomes deliquescent in the presence of water and no trace of a hydrate has been found. Finally, a study combining thermal and chromatographic methods showed that, under the effect of temperature, cysteamine hydrochloride turns into cystamine in the solid as well as in the liquid state, The latter is known to be an important impurity of cysteamine hydrochloride. In conclusion, the approach developed in this work allowed to characterize the stability properties of a number of APIs and to determine the factors that may change these properties and influence the intrinsic stability (...)

Page generated in 0.1037 seconds