• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 5
  • Tagged with
  • 13
  • 13
  • 13
  • 13
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Généralisations de la théorie PAC-bayésienne pour l'apprentissage inductif, l'apprentissage transductif et l'adaptation de domaine

Germain, Pascal 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / En apprentissage automatique, l’approche PAC-bayésienne permet d’obtenir des garanties statistiques sur le risque de votes de majorité pondérés de plusieurs classificateurs (nommés votants). La théorie PAC-bayésienne «classique», initiée par McAllester (1999), étudie le cadre d’apprentissage inductif, sous l’hypothèse que les exemples d’apprentissage sont générés de manière indépendante et qu’ils sont identiquement distribués (i.i.d.) selon une distribution de probabilité inconnue mais fixe. Les contributions de la thèse se divisent en deux parties. Nous présentons d’abord une analyse des votes de majorité, fondée sur l’étude de la marge comme variable aléatoire. Il en découle une conceptualisation originale de la théorie PACbayésienne. Notre approche, très générale, permet de retrouver plusieurs résultats existants pour le cadre d’apprentissage inductif, ainsi que de les relier entre eux. Nous mettons notamment en lumière l’importance de la notion d’espérance de désaccord entre les votants. Bâtissant sur une compréhension approfondie de la théorie PAC-bayésienne, acquise dans le cadre inductif, nous l’étendons ensuite à deux autres cadres d’apprentissage. D’une part, nous étudions le cadre d’apprentissage transductif, dans lequel les descriptions des exemples à classifier sont connues de l’algorithme d’apprentissage. Dans ce contexte, nous formulons des bornes sur le risque du vote de majorité qui améliorent celles de la littérature. D’autre part, nous étudions le cadre de l’adaptation de domaine, dans lequel la distribution génératrice des exemples étiquetés de l’échantillon d’entraînement diffère de la distribution générative des exemples sur lesquels sera employé le classificateur. Grâce à une analyse théorique – qui se révèle être la première approche PAC-bayésienne de ce cadre d’apprentissage –, nous concevons un algorithme d’apprentissage automatique dédié à l’adaptation de domaine. Nos expérimentations empiriques montrent que notre algorithme est compétitif avec l’état de l’art. / In machine learning, the PAC-Bayesian approach provides statistical guarantees on the risk of a weighted majority vote of many classifiers (named voters). The “classical” PAC-Bayesian theory, initiated by McAllester (1999), studies the inductive learning framework under the assumption that the learning examples are independently generated and are identically distributed (i.i.d.) according to an unknown but fixed probability distribution. The thesis contributions are divided in two major parts. First, we present an analysis of majority votes based on the study of the margin as a random variable. It follows a new conceptualization of the PAC-Bayesian theory. Our very general approach allows us to recover several existing results for the inductive PAC-Bayesian framework, and link them in a whole. Among other things, we highlight the notion of expected disagreement between the voters. Building upon an improved understanding of the PAC-Bayesian theory, gained by studying the inductive framework, we then extend it to two other learning frameworks. On the one hand, we study the transductive framework, where the learning algorithm knows the description of the examples to be classified. In this context, we state risk bounds on majority votes that improve those from the current literature. On the other hand, we study the domain adaptation framework, where the generating distribution of the labelled learning examples differs from the generating distribution of the examples to be classified. Our theoretical analysis is the first PAC-Bayesian approach of this learning framework, and allows us to conceive a new machine learning algorithm for domain adaptation. Our empirical experiments show that our algorithm is competitive with other state-of-the-art algorithms.
2

Using knowledge engineering for Modeling Mobile Learning Systems

Mohanna, Mahmoud 20 April 2018 (has links)
En éducation, on constate un besoin de mettre à profit l’évolution continue des technologies de l'information et des communications pour développer de nouvelles applications. Ainsi, un nouveau type d'apprentissage à distance a été créé. Il s'agit de l'apprentissage mobile qui peut fournir aux apprenants l'autonomie d'apprentissage maximale. De plus, il offre aux autres acteurs du processus d'apprentissage, comme les enseignants et les gestionnaires, des méthodes plus souples d'enseignement et de gestion. Malgré sa croissance rapide, il existe de nombreux problèmes qui doivent être résolus afin que cette forme d'apprentissage puisse prendre sa place dans les systèmes de formation utilisant la technologie. L'inconvénient majeur de l'apprentissage mobile est l'absence de standard ainsi que le manque de prise de conscience sur la façon dont il peut être bien intégré dans le processus d'apprentissage. Le défi le plus critique est la formulation d'un standard qui décrit le développement d'un système efficace d'apprentissage mobile et la définition précise de ses acteurs et de ses composants. L'objectif principal de cette thèse était de formaliser un modèle global et générique pour l'apprentissage mobile afin de bien comprendre ses divers composants et aussi pour guider les chercheurs ultérieurs dans le domaine de l'apprentissage mobile. La méthodologie d'ingénierie des connaissances, CommonKADS, a été employée pour aider à réaliser les objectifs de recherche. La modélisation proposée consiste en trois étapes consécutives, contexte, concept et artefact, et est illustrée par une expérience réelle d'apprentissage mobile au niveau universitaire. Les résultats montrent comment appliquer les modèles proposés pour concevoir une application d’apprentissage mobile et permettent de vérifier la possibilité d’intégrer une telle application dans un processus d’apprentissage formel. Cette thèse fait le lien entre la description théorique d’applications d’apprentissage mobile et leur mise en œuvre. Chaque modèle proposé peut être considéré en soi comme un exemple. Leurs descriptions génériques peuvent servir de point de départ pour de plus amples recherches, pouvant facilement s’adapter aux futures évolutions des appareils mobiles. / In education, the need to get the maximum benefit from recent development of computer and telecommunications technologies arises. A new kind of distance education mode i.e. mobile learning has been emerged. Mobile learning can provide learners with the maximum learning autonomy. It can also provide the other players in the learning process such as instructors and learning administrators with more flexible teaching and managing methods. Despite of the fact that m-learning is a fast growing technology, it faces many problems which have to be solved in order to allow it taking its rightful place in the field of technology-based learning. The main m-learning drawback is the absence of standard in addition to the lack of awareness about how it can be well integrated in the learning process. The most critical challenge facing us is the formulation of a standard describing how to develop an efficient m-learning system and how to define its actors and components precisely. The principal objective of this dissertation is to formalize a generic comprehensive model for m-learning in order to understand the m-learning different components and also to guide subsequent researchers in the m-learning domain. CommonKADS knowledge engineering methodology is employed in order to help in realizing the research objectives. The proposed modeling process goes through three consecutive stages; context, concept, and artifact modeling. Afterwards, it is illustrated by a real m-learning experience at higher education level. Results show how to apply the proposed models in order to design an entire mobile learning system and to verify the possibility to integrate that system in a formal learning process. This dissertation constructs the link between the theoretic description of mobile learning and its implementation. Each model can be considered as a standalone reference. Furthermore, the generic description of the proposed models represent a good starting point for further research, and can also be adapted with future evolutions in mobile and telecommunication technologies.
3

Agnostic Bayes

Lacoste, Alexandre 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / L’apprentissage automatique correspond à la science de l’apprentissage à partir d’exemples. Des algorithmes basés sur cette approche sont aujourd’hui omniprésents. Bien qu’il y ait eu un progrès significatif, ce domaine présente des défis importants. Par exemple, simplement sélectionner la fonction qui correspond le mieux aux données observées n’offre aucune garantie statistiques sur les exemples qui n’ont pas encore été observées. Quelques théories sur l’apprentissage automatique offrent des façons d’aborder ce problème. Parmi ceux-ci, nous présentons la modélisation bayésienne de l’apprentissage automatique et l’approche PACbayésienne pour l’apprentissage automatique dans une vue unifiée pour mettre en évidence d’importantes similarités. Le résultat de cette analyse suggère que de considérer les réponses de l’ensemble des modèles plutôt qu’un seul correspond à un des éléments-clés pour obtenir une bonne performance de généralisation. Malheureusement, cette approche vient avec un coût de calcul élevé, et trouver de bonnes approximations est un sujet de recherche actif. Dans cette thèse, nous présentons une approche novatrice qui peut être appliquée avec un faible coût de calcul sur un large éventail de configurations d’apprentissage automatique. Pour atteindre cet objectif, nous appliquons la théorie de Bayes d’une manière différente de ce qui est conventionnellement fait pour l’apprentissage automatique. Spécifiquement, au lieu de chercher le vrai modèle à l’origine des données observées, nous cherchons le meilleur modèle selon une métrique donnée. Même si cette différence semble subtile, dans cette approche, nous ne faisons pas la supposition que le vrai modèle appartient à l’ensemble de modèles explorés. Par conséquent, nous disons que nous sommes agnostiques. Plusieurs expérimentations montrent un gain de généralisation significatif en utilisant cette approche d’ensemble de modèles durant la phase de validation croisée. De plus, cet algorithme est simple à programmer et n’ajoute pas un coût de calcul significatif à la recherche d’hyperparamètres conventionnels. Finalement, cet outil probabiliste peut également être utilisé comme un test statistique pour évaluer la qualité des algorithmes sur plusieurs ensembles de données d’apprentissage. / Machine learning is the science of learning from examples. Algorithms based on this approach are now ubiquitous. While there has been significant progress, this field presents important challenges. Namely, simply selecting the function that best fits the observed data was shown to have no statistical guarantee on the examples that have not yet been observed. There are a few learning theories that suggest how to address this problem. Among these, we present the Bayesian modeling of machine learning and the PAC-Bayesian approach to machine learning in a unified view to highlight important similarities. The outcome of this analysis suggests that model averaging is one of the key elements to obtain a good generalization performance. Specifically, one should perform predictions based on the outcome of every model instead of simply the one that best fits the observed data. Unfortunately, this approach comes with a high computational cost problem, and finding good approximations is the subject of active research. In this thesis, we present an innovative approach that can be applied with a low computational cost on a wide range of machine learning setups. In order to achieve this, we apply the Bayes’ theory in a different way than what is conventionally done for machine learning. Specifically, instead of searching for the true model at the origin of the observed data, we search for the best model according to a given metric. While the difference seems subtle, in this approach, we do not assume that the true model belongs to the set of explored model. Hence, we say that we are agnostic. An extensive experimental setup shows a significant generalization performance gain when using this model averaging approach during the cross-validation phase. Moreover, this simple algorithm does not add a significant computational cost to the conventional search of hyperparameters. Finally, this probabilistic tool can also be used as a statistical significance test to evaluate the quality of learning algorithms on multiple datasets.
4

Mesure de distance entre politiques de sécurité dans un service Web

Mohamed El-Marouf, Ahmed 23 April 2018 (has links)
La contribution principale de ce document est de suggérer une nouvelle méthode pour mesurer le degré de similarité entre politiques de sécurité écrites en XACML. Ceci est réalisé en deux étapes : premièrement, la politique de sécurité XACML est formalisée en SPL, deuxièmement les résultats obtenus vont servir pour mesurer la distance entre politiques. Le choix de la distance à utiliser dépend des types de prédicats (catégoriques ou numériques). De ce fait, un tableau synthétique a été prévu pour repartir les différentes métriques qui sont calculées dans ce document selon leurs prédicats. Un prototype a été codé en PHP et implémenté pour valider notre contribution. Des recommandations ont été émises en conclusion pour enrichir l’approche proposée. / The main contribution of this paper is to suggest a new method to measure the similarity between security policies written in XACML. This is done in two steps: first the safety policy is formalized in SPL, secondly the results will be used to measure the distance between policies. The choice of the distance to use depends on the types of predicates (categorical or numeric). Thus, a synthetic table is provided to link the different metrics that are calculated in accordance with their predicate. A prototype has been coded in PHP and implemented to validate our contribution. Recommendations were issued in conclusion to enrich the proposed approach.
5

Algorithmes d'apprentissage automatique pour la conception de composés pharmaceutiques et de vaccins

Giguère, Sébastien 23 April 2018 (has links)
La découverte de composés pharmaceutiques est actuellement trop longue et trop coûteuse, et le taux d’échec, trop élevé. Les bases de données biochimiques et génomiques ne cessent de grossir et il est maintenant impraticable d’interpréter ces données. Un changement radical est nécessaire ; certaines étapes de ce processus doivent être automatisées. Les peptides jouent un rôle important dans le système immunitaire et dans la signalisation cellulaire. Leurs propriétés favorables en font des candidats de choix pour initier la conception de nouveaux médicaments et assister la production de nouveaux vaccins. De plus, les techniques de synthèse modernes permettent de rapidement synthétiser ces molécules à faible coût. Les algorithmes d’apprentissage statistique sont particulièrement bien adaptés pour apprendre de façon automatisée des modèles, possiblement biochimiques, à partir des données existantes. Ces méthodes et les peptides offrent donc une solution de choix aux défis auxquels fait face la recherche pharmaceutique. Nous proposons un noyau permettant l’apprentissage de modèles statistiques de phénomènes biochimiques impliquant des peptides. Celui-ci permet, entre autres, l’apprentissage d’un modèle universel pouvant raisonnablement quantifier l’énergie de liaison entre toute séquence peptidique et tout site de liaison d’une protéine cristallisée. De plus, il unifie la théorie de plusieurs noyaux existants tout en conservant une faible complexité algorithmique. Ce noyau s’avère particulièrement adapté pour quantifier l’interaction entre les antigènes et les complexes majeurs d’histocompatibilité. Nous proposons un outil pour prédire les peptides qui survivront au processus de présentation antigénique. Cet outil a gagné une compétition internationale et aura plusieurs applications en immunologie, dont la conception de vaccins. Ultimement, un peptide doit maximiser l’interaction avec une protéine cible ou maximiser la bioactivité chez l’hôte. Nous formalisons ce problème comme un problème de prédiction de structures. Puis, nous proposons un algorithme exploitant les plus longs chemins dans un graphe pour déterminer les peptides maximisant la bioactivité prédite par un modèle préalablement appris. Nous validons cette nouvelle approche en laboratoire par la découverte de peptides antimicrobiens. Finalement, nous fournissons des garanties de performance de type PAC-Bayes pour deux algorithmes de prédiction de structure dont un est nouveau. / The discovery of pharmaceutical compounds is currently too time-consuming, too expensive, and the failure rate is too high. Biochemical and genomic databases continue to grow and it is now impracticable to interpret these data. A radical change is needed; some steps in this process must be automated. Peptides are molecules that play an important role in the immune system and in cell signaling. Their favorable properties make them prime candidates for initiating the design of new drugs and assist in the design of vaccines. In addition, modern synthesis techniques can quickly generate these molecules at low cost. Statistical learning algorithms are well suited to manage large amount of data and to learn models in an automated fashion. These methods and peptides thus offer a solution of choice to the challenges facing pharmaceutical research. We propose a kernel for learning statistical models of biochemical phenomena involving peptides. This allows, among other things, to learn a universal model that can reasonably quantify the binding energy between any peptide sequence and any binding site of a protein. In addition, it unifies the theory of many existing string kernels while maintaining a low computational complexity. This kernel is particularly suitable for quantifying the interaction between antigens and proteins of the major histocompatibility complex. We provide a tool to predict peptides that are likely to be processed by the antigen presentation pathway. This tool has won an international competition and has several applications in immunology, including vaccine design. Ultimately, a peptide should maximize the interaction with a target protein or maximize bioactivity in the host. We formalize this problem as a structured prediction problem. Then, we propose an algorithm exploiting the longest paths in a graph to identify peptides maximizing the predicted bioactivity of a previously learned model. We validate this new approach in the laboratory with the discovery of new antimicrobial peptides. Finally, we provide PAC-Bayes bound for two structured prediction algorithms, one of which is new.
6

Calibration-free Pedestrian Partial Pose Estimation Using a High-mounted Kinect

Toony, Razieh 23 April 2018 (has links)
Les applications de l’analyse du comportement humain ont subit de rapides développements durant les dernières décades, tant au niveau des systèmes de divertissements que pour des applications professionnelles comme les interfaces humain-machine, les systèmes d’assistance de conduite automobile ou des systèmes de protection des piétons. Cette thèse traite du problème de reconnaissance de piétons ainsi qu’à l’estimation de leur orientation en 3D. Cette estimation est faite dans l’optique que la connaissance de cette orientation est bénéfique tant au niveau de l’analyse que de la prédiction du comportement des piétons. De ce fait, cette thèse propose à la fois une nouvelle méthode pour détecter les piétons et une manière d’estimer leur orientation, par l’intégration séquentielle d’un module de détection et un module d’estimation d’orientation. Pour effectuer cette détection de piéton, nous avons conçu un classificateur en cascade qui génère automatiquement une boîte autour des piétons détectés dans l’image. Suivant cela, des régions sont extraites d’un nuage de points 3D afin de classifier l’orientation du torse du piéton. Cette classification se base sur une image synthétique grossière par tramage (rasterization) qui simule une caméra virtuelle placée immédiatement au-dessus du piéton détecté. Une machine à vecteurs de support effectue la classification à partir de cette image de synthèse, pour l’une des 10 orientations discrètes utilisées lors de l’entrainement (incréments de 30 degrés). Afin de valider les performances de notre approche d’estimation d’orientation, nous avons construit une base de données de référence contenant 764 nuages de points. Ces données furent capturées à l’aide d’une caméra Kinect de Microsoft pour 30 volontaires différents, et la vérité-terrain sur l’orientation fut établie par l’entremise d’un système de capture de mouvement Vicon. Finalement, nous avons démontré les améliorations apportées par notre approche. En particulier, nous pouvons détecter des piétons avec une précision de 95.29% et estimer l’orientation du corps (dans un intervalle de 30 degrés) avec une précision de 88.88%. Nous espérons ainsi que nos résultats de recherche puissent servir de point de départ à d’autres recherches futures. / The application of human behavior analysis has undergone rapid development during the last decades from entertainment system to professional one, as Human Robot Interaction (HRI), Advanced Driver Assistance System (ADAS), Pedestrian Protection System (PPS), etc. Meanwhile, this thesis addresses the problem of recognizing pedestrians and estimating their body orientation in 3D based on the fact that estimating a person’s orientation is beneficial in determining their behavior. In this thesis, a new method is proposed for detecting and estimating the orientation, in which the result of a pedestrian detection module and a orientation estimation module are integrated sequentially. For the goal of pedestrian detection, a cascade classifier is designed to draw a bounding box around the detected pedestrian. Following this, extracted regions are given to a discrete orientation classifier to estimate pedestrian body’s orientation. This classification is based on a coarse, rasterized depth image simulating a top-view virtual camera, and uses a support vector machine classifier that was trained to distinguish 10 orientations (30 degrees increments). In order to test the performance of our approach, a new benchmark database contains 764 sets of point cloud for body-orientation classification was captured. For this benchmark, a Kinect recorded the point cloud of 30 participants and a marker-based motion capture system (Vicon) provided the ground truth on their orientation. Finally we demonstrated the improvements brought by our system, as it detected pedestrian with an accuracy of 95:29% and estimated the body orientation with an accuracy of 88:88%.We hope it can provide a new foundation for future researches.
7

Contrôle du flot d'information par des techniques basées sur le langage de programmation

Simo, Jean Claude 23 April 2018 (has links)
Un programme est dit non interférent si les valeurs de ses sorties publiques ne dépendent pas des valeurs de ses entrées secrètes. Des études ont montré que par l'analyse du flot d'information, on peut établir et contrôler cette propriété ou des propriétés qui lui sont étroitement liées. Dans ce travail, nous examinons en détail les modèles d'analyse de flot d'information existants, et esquissons une nouvelle approche dans un paradigme concurrent. La première partie de ce mémoire présente les différentes formulations de la non-interférence et un survol des grandes familles de mécanismes d'analyse de flot d'information. En second lieu, nous présentons en détail quelques mécanismes récents d'analyse sensibles aux flots, applicables à la programmation séquentielle. Mécanismes statiques pour certains, dynamiques ou hybrides pour d'autres. Dans la troisième partie, nous explorons deux modèles récents de sécurisation des flots d'information dans un programme concurrent. Les deux modèles ont en commun la particularité de proposer des traitements pour sécuriser l'interaction entre les programmes et l'ordonnanceur. Nous terminons par une esquisse de notre nouvelle approche, basée sur l'analyse des dépendances entre les variables d'un programme concurrent. / A program is said to be noninterfering if the values of its public (or low) outputs do not depend on the values of its secret (or high) inputs. Various researchers have demonstrated how this property (or closely related properties) can be achieved through information flow analysis. In this work, we present in detail some existing models of information flow analysis, and sketch a new approach of analysis for concurrent programming. The first part of this thesis presents the different formulations of non-interference, and an overview of the main types of information flow analysis. In the second part, we examine in detail some recent static and dynamic (hybrid) flow-sensitive analysis models, for a simple imperative language. In the third part, we explore two recent models of secure information flow in concurrent programs, which develop a novel treatment of the interaction between threads and the scheduler to prevent undesired interleaving. We end with a sketch of the foundations for another approach, based on the analysis of dependencies between variables of concurrent programs.
8

Formal Enforcement of Security Policies : An Algebraic Approach

Sui, Guang Ye 23 April 2018 (has links)
La sécurité des systèmes d’information est l’une des préoccupations les plus importantes du domaine de la science informatique d’aujourd’hui. Les particuliers et les entreprises sont de plus en plus touchés par des failles de sécurité et des milliards de dollars ont été perdus en raison de cyberattaques. Cette thèse présente une approche formelle basée sur la réécriture de programmes permettant d’appliquer automatiquement des politiques de sécurité sur des programmes non sécuritaires. Pour un programme P et une politique de sécurité Q, nous générons un autre programme P’ qui respecte une politique de sécurité Q et qui se comporte comme P, sauf si la politique est sur le point d’être violée. L’approche présentée utilise l’algèbre [symbol] qui est une variante de [symbol] (Basic Process Algebra) étendue avec des variables, des environnements et des conditions pour formaliser et résoudre le problème. Le problème de trouver la version sécuritaire P’ à partir de P et de Q se transforme en un problème de résolution d’un système linéaire pour lequel nous savons déjà comment extraire la solution par un algorithme polynomial. Cette thèse présente progressivement notre approche en montrant comment la solution évolue lorsqu’on passe de l’algèbre de [symbol] à [symbol]. / The security of information systems is one of the most important preoccupations of today’s computer science field. Individuals and companies are more and more affected by security flaws and billions of dollars have been lost because of cyber-attacks. This thesis introduces a formal program-rewriting approach that can automatically enforce security policies on non-trusted programs. For a program P and a security policy Q, we generate another program P’ that respects the security policy Q and behaves like P except when the enforced security policy is about to be violated. The presented approach uses the [symbol] algebra that is a variant of the BPA (Basic Process Algebra) algebra extended with variables, environments and conditions to formalize and resolve the problem. The problem of computing the expected enforced program [symbol] is transformed to a problem of resolving a linear system for which we already know how to extract the solution by a polynomial algorithm. This thesis presents our approach progressively and shows how the solution evolves when we move from the [symbol] algebra to the [symbol] algebra.
9

Modélisation électrophysiologique et biochimique d'un neurone : CA1 cellule de l'hippocampe

Osseni, Mazid Abiodoun 23 April 2018 (has links)
Ce mémoire présente une nouvelle approche pour la réalisation de modèles biophysiques de neurone. Dans un premier temps, nous avons développé un modèle électrique compartimental selon le formalisme de Hodgkin-Huxley avec le logiciel NEURON. En second lieu, nous avons procédé à la réalisation de la modélisation biochimique avec des systèmes d’équations différentielles représentant des réactions d’action de masse et des réactions enzymatiques. La modélisation biochimique se fait tant dans un modèle par compartiments avec des équations différentielles ordinaires que dans un modèle spatial avec des équations différentielles partielles. VCell nous a permis de réaliser ce type de modélisation. Le modèle hybride développé présente deux points de jonction entre les formalismes des modèles électrique et biochimique pris indépendemment. Au premier point de jonction, les courants calciques calculés avec les équations de type Hodgkin-Huxley sont convertis en concentration d’ions de calcium. Ce calcium est un messager secondaire pour de nombreuses voies de signalisation cellulaire. Une élévation de la concentration de calcium modifie la dynamique des réactions biochimiques. Le deuxième point de jonction est l’impact de l’activité de kinases sur les propriétés électriques de canaux ioniques. Par la phosphorylation, certaines kinases viennent moduler la réponse électrique du neurone. En intégrant tous ces effets biophysiques et biochimiques dans une même méthodologie de modélisation, nous pouvons modéliser des processus cellulaires complexes dans les neurones. Le cross-talk synaptique est un phénomène physiologique observé, qui consiste en une augmentation de l’excitabilité membranaire suite à l’interaction entre les signaux électrique et biochimique et une communication entre les épines dendritiques du neurone. Cette interaction représente un excellent cas d’étude pour développer et valider notre méthodologie. Cette méthodologie porte sur l’interaction entre le calcium, la MAPK et les canaux KV4.2. Le calcium vient activer la MAPK par l’intermédiaire de différentes molécules. La MAPK vient ensuite phosphoryler les canaux KV4.2 qui sont possiblement responsables d’une augmentation observée de l’excitabilité membranaire. / This master’s thesis presents a new modeling technique for biophysical models of individual neurons that integrates their electrical and biochemical behaviors. First of all, we developped an electrical compartmental model. This model is based on the Hodgkin-Huxley formalism and developped in NEURON, a modeling software tool for neuroscience. Then, we developped a biochemical model. This second model is a system of differential equations based on mass action reations and enzymatic reactions. We implemented two versions of this model, one as a compartmental model with ordinary differential equations (ODE) and the other as a spatial model with partial differential equations (PDE). We used the software tool VCell for the biochemical modeling. The hybrid model combining the electrical and biochemical behaviors has two connection points between the electrical and biochemical models. At the first junction, the calcium curents calculated by the Hodgkin-Huxley equations are converted into a concentration of calcium ions. This calcium is a secondary messenger for numerous cellular signaling pathways and a rise of the calcium concentration modifies the biochemical reaction dynamic. The second junction is the kinases activity on the ionic channel electrical properties. Through phosphorylation, the kinases modulate the electrical response of the neuron. By integrating all these biophysical and biochemical effects in the same methodology, we can build a complex cellular process models. The synaptic crosstalk is a physiological event which leads to a local increase of the membrane excitability that is due to the interaction between electrical and biochemical signals. This interaction represents an excellent case study for the development and the validation of our methodology. Our model includes the regulation of calcium, MAPK the channel KV4.2.
10

Contrôle d'accès par les ontologies : Outil de validation automatique des droits d'accès

Sadio, Étienne Théodore 23 April 2018 (has links)
De nos jours, nous assistons à l'émergence d'un écosystème informatique au sein de l'entreprise due à la cohabitation de plusieurs types de systèmes et d'équipements informatique. Cette diversité ajoute de la complexité dans la gestion de la sécurité informatique en général et le contrôle d'accès en particulier. En effet, plusieurs systèmes informatiques implémentent le contrôle d'accès en se basant sur des modèles comme le MAC1, DAC2, RBAC3 entre autres. Ainsi, chaque système a sa propre stratégie donc son propre de modèle de contrôle d'accès. Cela crée une hétérogénéité dans la gestion des droits d'accès. Pour répondre à ce besoin de gestion du contrôle d'accès, nous avons, dans ce mémoire, présenté la conception d'une ontologie et d'un outil de gestion automatique des droits d'accès dans un environnement hétérogène. Cet outil se base sur notre ontologie qui permet d'introduire une abstraction sur les modèles de contrôle d'accès implémentés dans les différents systèmes à analyser. Ainsi, les administrateurs de sécurité disposent un outil pour valider l'ensemble des droits d'accès dans leurs écosystèmes informatique. / Today, we are seeing the emergence of an IT ecosystem within companies due to the coexistence of several types of systems and computer equipements. This diversity adds complexity in management of computer security in general and particulary in access control. Indeed, several computer systems implement access control techniques based on models like MAC4, DAC5, RBAC6 among others. Each system has its own strategy based on its own access control model. This creates a heterogeneity in the management of access rights. To respond to this need related to the management of access control, we presented the design of an ontology and we developped an automated management tool of access rights in a heterogeneous environment. This tool is based on our ontology which introduces an abstraction on access control models implemented in different systems that we want analyze. Thus, security administrators have a tool to validate all access rights in their IT ecosystems.

Page generated in 0.0216 seconds