21 |
Optimisation des correcteurs par les métaheuristiques. Application à la stabilisation inertielle de ligne de visée. / Controllers optimization with metaheuristics – Application to the ligne of sight stabilization problem.Feyel, Philippe 16 June 2015 (has links)
Dans l’industrie, l’automaticien doit concevoir une loi de commande unique qu’il valide sur un prototype unique, ayant un degré de robustesse suffisant pour satisfaire un cahier des charges complexe sur un grand nombre de systèmes. Pour cela, la méthodologie de développement qu’il emploie consiste en un processus itératif expérimental (phase d’essai-erreur), qui fait grandement appel à l’expérience de l’ingénieur. Dans cette thèse, on tente de rendre la méthodologie de synthèse des correcteurs des asservissements plus efficace car plus directe et donc moins couteuse en temps de développement en calculant un correcteur final (structuré) par une attaque directe de la spécification système haut niveau. La complexité des spécifications systèmes haut-niveau nous pousse à l’emploi des métaheuristiques : ces techniques d’optimisation ne nécessitent pas la formulation du gradient, la seule contrainte étant la possibilité d’évaluer la spécification. Ainsi avons-nous proposé dans ce travail de reformuler les problèmes de commande robuste pour l’optimisation stochastique : on montre dans ce travail comment on peut synthétiser des correcteurs structurés à partir de problématiques de type H ou -synthèse et on montre que l’intérêt de l’approche formulée réside dans sa flexibilité et la prise en compte de contraintes « exotiques » complexes ; les algorithmes évolutionnaires s’avérant très performants et compétitifs, nous avons finalement développé sur cette base une méthode originale de synthèse de correcteurs structurés et robustes vis-à-vis de critères d’optimisation de forme quelconque. La validation de ces travaux a été réalisée sur des exemples industriels de viseurs. / In the industrial framework, the control engineer must design a unique control law that valid on a single prototype, with a sufficient degree of robustness to satisfy a complex specification on many systems. For that purpose, his development methodology consists of an experimental iterative process (trial and error phase), which relies heavily on the experience of the engineer. In this thesis, we try to make the methodology for computing controllers more efficient and more direct with a less costly development time by calculating a final structured controller by a direct optimization on the high level specification.The complexity of high-level specifications pushes us to the use of metaheuristics: these optimization techniques do not require the formulation of the gradient, the only constraint being the possibility of evaluating the specification. Thus we proposed in this work to reformulate robust control problems for stochastic optimization: we show in this work how to synthesize structured controllers for control problems such H synthesis or -synthesis and show that the interest of the formulated approach lies in its flexibility and the consideration of exotic complex constraints. Evolutionary algorithms proving very effective and competitive, we finally developed on this basis a new method for synthesizing robust and structured controllers with respect to any form of optimization criteria. The validation of this work was carried out on the industrial example of the line of sight stabilization problem.
|
22 |
Contribution à l'étude de l'échantillonnage non uniforme dans le domaine de la radio intelligente. / Non Uniform sampling contributions in the context of Cognitive RadioTraore, Samba 09 December 2015 (has links)
Nous proposons un nouveau schéma d’échantillonnage non uniforme périodique appelé Système d’Échantillonnage Non Uniforme en Radio Intelligente (SENURI). Notre schéma détecte la localisation spectrale des bandes actives dans la bande totale échantillonnée afin de réduire la fréquence moyenne d’échantillonnage, le nombre d’échantillons prélevé et par conséquent la consommation d’énergie au niveau du traitement numérique. La fréquence moyenne d’échantillonnage du SENURI dépend uniquement du nombre de bandes contenues dans le signal d’entrée x(t). Il est nettement plus performant, en termes d’erreur quadratique, qu’une architecture classique d’échantillonnage non uniforme périodique constituée de p branches, lorsque le spectre de x(t) change dynamiquement. / In this work we consider the problem of designing an effective sampling scheme for sparse multi-band signals. Based on previous results on periodic non-uniform sampling (Multi-Coset) and using the well known Non-Uniform Fourier Transform through Bartlett’s method for Power Spectral Density estimation, we propose a new sampling scheme named the Dynamic Single Branch Non-uniform Sampler (DSB-NUS). The idea of the proposed scheme is to reduce the average sampling frequency, the number of samples collected, and consequently the power consumption of the Analog to Digital Converter (ADC). In addition to that our proposed method detects the location of the bands in order to adapt the sampling rate. In this thesis, we show through simulation results that compared to existing multi-coset based samplers, our proposed sampler provides superior performance, both in terms of sampling rate and energy consumption. It is notconstrained by the inflexibility of hardware circuitry and is easily reconfigurable. We also show the effect of the false detection of active bands on the average sampling rate of our new adaptive non-uniform sub-Nyquist sampler scheme.
|
23 |
Reconnaissance d'organismes aquatiques envahissants par traitement d'image et imagerie de fluorescence. / Recognition of invasive aquatic organisms by image processing and fluorescence imagingLauffer, Mathieu 14 December 2015 (has links)
Le phytoplancton joue un rôle fondamental dans le monde du vivant. C’est un générateur de dioxygène et le plus important fixateur de dioxyde de carbone sur Terre. Cependant, sous certaines conditions, son développement peut devenir envahissant et il peut être néfaste pour la santé des autres végétaux et animaux aquatiques. Il s’agit du phénomène d’hyper eutrophisation. Ce phénomène peut mener à des conséquences dramatiques pour l’environnement, car il limite les échanges de gaz et le processus de photosynthèse des autres espèces végétales. Dans un cas extrême, ce processus peut causer la mort de tout l’écosystème aquatique. Il apparait donc essentiel de renforcer la vigilance et le contrôle de la prolifération du phytoplancton et notamment de leur toxicité. Dans une première approche la reconnaissance et l’identification des organismes aquatiques, nécessaires pour la surveillance, sont réalisés par des systématiciens par observations microscopiques. Néanmoins, dans certaines circonstances, il peut être utile d’avoir un système automatique de reconnaissance pour améliorer la surveillance et optimiser l’intervention de l’homme. Le développement d’un tel système de reconnaissance des organismes aquatiques est de plus en plus envisagé.Dans l’objectif d’identifier les organismes aquatiques, un système microscopique original a été développé au cours de cette thèse dans lequel les faisceaux incident et émis sont filtrés par bande sélective de longueur d’onde. Ce double système de filtration permet l’acquisition d’images microscopiques classiques et d’images de fluorescence de la matière organique végétale sous différente illumination. Ensuite, les différentes images obtenues sont analysées et traitées par deux algorithmes de segmentation pour extraire des caractéristiques morphologiques et la composition des pigments, utilisées par la suite pour la reconnaissance automatique. Finalement, toutes les caractéristiques associant la morphologie et les données de fluorescence des espèces du phytoplancton, sont réunies dans une base de données permettant la reconnaissance optique et automatique du phytoplancton. / Phytoplankton plays a fundamental role in the living world. It is a dioxygen generator and the most important carbon dioxide fixer on Earth. However, under certain conditions, its development may become so excessive that it could be harmful to other vegetal and animal aquatic life in the water ponds in which it grows: it is the “hyper eutrophication” phenomenon. Such a situation leads to dramatic consequences on environment due to the difficulties that arise for photosynthesis and gas exchanges of other plant species. At the extreme limit, this can cause the death of the whole aquatic ecosystem. It appears therefore essential to strengthen the vigilance on controlling the proliferation of plankton and toxins with the necessity of risk evaluation. In a first approach, the recognition and the identification of aquatic organisms, necessary for such a control, are usually performed only by specialists algologists from microscopic observations. Nevertheless, in certain circumstances, it may be useful to dispose of an automatic recognition system to improve the monitoring of high-risk water ponds and optimize human intervention of specialists algologists. The development of such an automatic system of recognition of aquatics organism is more and more considered.In order to identify aquatic organisms, an original optical microscopy set up was developed in which the incident and emitted light beams are filtered in wavelengths. Such a set up enables the acquisition of classical microscopic images and microscopic images of fluorescence emission of the vegetal material under different illumination. These different images are then analyzed and processed by two algorithms of segmentation to collect characteristics data of the vegetals morphology and pigments compositions useful thereafter for their automatic recognition. Finally, all these different characteristic parameters linked to morphology and fluorescence emission of the vegetal species are collected to build a database useful for automatic optical recognition.
|
24 |
Two-mode dynamics and switching in quantum dot lasers. / Dynamique non-linéaire et propriétés de polarisation de diodes lasers nanostructuréesVirte, Martin 20 October 2014 (has links)
Dans cette thèse, j'étudie la dynamique non linéaire résultant d’une compétition entre deux modes dans des systèmes lasers à boites quantiques.D’abord, je considère le cas de la compétition entre deux modes de polarisation apparaissant dans les diodes laser nanostructurées à cavité verticale et émettant par la surface (VCSELs). Il est connu que ces composants peuvent avoir une polarisation instable menant à des dynamiques riches. Récemment, un surprenant saut de mode entre deux états polarisés elliptiquement a été récemment découvert dans les VCSELs à boites quantiques. Ce comportement montre des propriétés intrigantes qui nécessitent une interprétation alternative. Dans cette thèse, je montre que ce comportement dynamique peut-être reproduit en utilisant le modèle spin-flip (SFM). En particulier je démontre et confirme expérimentalement que les sauts de modes sont en réalité des fluctuations chaotiques de faible dimension : un chaos en polarisation. Je démontre ensuite la pertinence de la dynamique chaotique observée pour les applications exploitant le chaos optique, en réalisant un générateur de nombres aléatoires à grande vitesse basé sur le chaos en polarisation.Deuxièmement, j'étudie les effet d'une rétroaction optique à délai sur les lasers à boites quantiques émettant simultanément depuis l'état fondamental et le premier état excité. Je clarifie l'impact the cette rétroaction optique ainsi que les mécanismes et bifurcations correspondantes. Je montre théoriquement qu'une rétroaction optique favorise globalement l'émission par l'état fondamental, mais aussi qu'un tel montage peut être utilisé pour commuter entre ces deux modes d'émission lorsque l'on change le taux ou le délai de la rétroaction. Enfin, je confirme ces observations expérimentalement, en rapportant des commutations entre l'état fondamental et l'état excité. / In this thesis, I study the nonlinear dynamics induced by the competition between two modes in quantum dot laser systems.First, I focus on the competition between polarization modes that takes place in quantum dot vertical-cavity surface-emitting lasers (VCSELs). It is well-known that these devices can exhibit polarization instabilities leading to rich dynamical evolution. Recently, a new peculiar random-like hopping between two non-orthogonal elliptically polarized states has been highlighted in QD VCSELs. This behavior shows intriguing features which clearly call for a different interpretation. In this thesis, I show that the dynamical behavior reported experimentally can accurately be reproduced within the spin-flip model (SFM) framework. In particular, I demonstrate and confirm experimentally that the peculiar random-like hoppings are in fact deterministic low-dimensional chaotic fluctuations, i.e. ``Polarization Chaos''. I then make a proof-of-concept demonstration of a high-speed random bit generator based on polarization chaos, hence demonstrating that the chaotic dynamics uncovered is relevant for optical chaos-based applications.Secondly, I investigate the effects of an external optical feedback on quantum dot lasers emitting simultaneously from the ground and the excited states. I bring new light on the impact of optical feedback and the corresponding mechanisms and bifurcations. I highlight theoretically that optical feedback globally favors the ground state emission, but also that it can be used to switch from one mode to the other when changing the feedback rate and/or the time-delay. In addition, I experimentally report switching between the ground and excited states when varying the external cavity length at the micrometer scale, which supports the theoretical predictions.
|
25 |
Approche conjointe de la réduction du facteur de crête et de la linéarisation dans le contexte OFDM. / Joint Approach of Crest Factor Reduction and Linearization in OFDM contextGouba, Oussoulare 10 December 2013 (has links)
Les amplificateurs de puissance sont au centre des systèmes actuels de télécommunications. Leur linéarité (pour préserver la qualité des données transmises) et leur rendement énergétique (pour faire des économies d’énergie) sont très importants et constituent les préoccupations majeures des concepteurs. Cependant, ce sont des composants analogiques intrinsèquement non-linéaires et leur utilisation avec des signaux à enveloppes non-constantes génèrent des distorsions à savoir des remontées spectrales hors-bandes et une dégradation du taux d’erreurs. Les signaux OFDM à la base de nombreux standards comme le Wifi, le Wi-Max, la télévision numérique, le LTE, etc. ont de fortes variations de puissance encore appelées PAPR (Peak-to-Average Power Ratio) qui aggravent ces problèmes de non-linéarité de l’amplificateur et réduit son rendement. Le traitement conjoint des non-linéarités et l’amélioration du rendement de l’amplificateur est l’objectif de cette thèse.Pour cela, l’accent est mis sur une approche conjointe de la linéarisation et de la réduction du PAPR. Ces deux méthodes jusqu’à présent abordées séparément dans la littérature sont en fait complémentaires et interdépendantes. Cela a été prouvé grâce à une étude analytique que nous avons menée. Grâce à l’approche conjointe, on peut simplement les associer, on parle dans ce cas d’approche non-collaborative ou leur permettre en plus d’échanger des informations et de s’adapter l’une par rapport à l’autre et/ou vice versa. Ce dernier cas est l’approche collaborative. Nous avons ensuite proposé des algorithmes d’approche conjointe collaborative basés sur les techniques d’ajout de signal. La réduction du PAPR et la prédistorsion (choisie comme méthode de linéarisation) sont fusionnées sous une seule formulation d’ajout de signal. Un signal additionnel conjoint est alors généré pour à la fois compenser les non-linéarités de l’amplificateur de puissance et réduire la dynamique du signal à amplifier. / Power amplifiers are key components of current telecommunications systems. Their linearity (to preserve the quality of the data) and efficiency (for power savings) are the primary concerns of designers. However, they are non-linear analog components in nature that cause spectral leakage, warping and clustering of the constellation. The overall consequences of this are out-of-band interferences and Bit Error Rate (BER) degradation at the receiver.OFDM’s modulation used in many standards such as Wi-Fi, WiMAX, digital TV, LTE, etc. generates temporal signals with high power fluctuations also termed as Peak-to-average Power Ratio (PAPR). High PAPRs aggravate the non-linearity problem of the amplifier and reduce its efficiency. The objective of this thesis is to jointly increase the linearity and the efficiency of the power amplifier.For this, we focus on a joint approach of linearization and PAPR reduction. These two methods so far discussed separately in the literature are complementary and interdependent. This has been proven through an analytical study that we conducted. Through the joint approach, the two methods can be simply associated; in this case we speak of non-collaborative approach, or allowed to exchange some information in order to adapt each other. This latter case is collaborative approach. Then, we proposed algorithms of collaborative approach based on adding signal techniques. PAPR reduction and predistortion (chosen as linearization’s method) are merged into one global adding signal formulation. A joint additional signal is then generated to compensate at the same time the non-linearities introduced by the power amplifier and reduce the dynamic range of the signal to be amplified.
|
26 |
Management d'opérateurs communs dans les architectures de terminaux multistandards. / Management of common operators in the architectures of multi-standard terminals.Naoues, Malek 26 November 2013 (has links)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d’un standard à l’autre doit pouvoir se faire au prix d’un surcoût matériel modéré, ce qui impose l’utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l’exécution d’une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L’objectif de cette technique est d’identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d’un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d’opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l’architecture d’un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L’architecture, que nous avons proposé et implémenté sur FPGA, permet d’adapter le nombre d’opérateurs communs alloués à chaque algorithme et donc permet l’accélération des traitements. Les résultats montrent que l’utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l’occupation mémoire. / Today's telecommunication systems require more and more flexibility, and reconfiguration mechanisms are becoming major topics especially when it comes to multistandard designs. In typical hardware designs, the communication standards are implemented separately using dedicated instantiations which are difficult to upgrade for the support of new features. To overcome these issues, we exploit a parameterization approach called the Common Operator (CO) technique that can be considered to build a generic terminal capable of supporting a large range of communication standards. The main principle of the CO technique is to identify common elements based on smaller structures that could be widely reused across signal processing functions. This technique aims at designing a scalable digital signal processing platform based on medium granularity operators, larger than basic logic cells and smaller than signal processing functions. In this thesis, the CO technique is applied to two widely used algorithms in wireless communication systems: Viterbi decoding and Fast Fourier Transform (FFT). Implementing the FFT and Viterbi algorithms in a multistandard context through a common architecture poses significant architectural constraints. Thus, we focus on the design of a flexible processor to manage the COs and take advantage from structural similarities between FFT and Viterbi trellis. A flexible FFT/Viterbi processor was proposed and implemented on FPGA and compared to dedicated hardware implementations. The results show a considerable gain in flexibility. This gain is achieved with no complexity overhead since the complexity if even decreased up to 30% in the considered configurations.
|
27 |
Algorithmes de prise de décision pour la "cognitive radio" et optimisation du "mapping" de reconfigurabilité de l'architecture de l'implémentation numérique. / Decision making algorithms for cognitive radio and optimization of the reconfigurability mapping for the numerical architecture of implementationBourbia, Salma 27 November 2013 (has links)
Dans cette thèse nous nous intéressons au développement d'une méthode de prise de décision pour un équipement de réception de Radio Intelligente qui s’adapte dynamiquement à son environnement. L'approche que nous adoptons est basée sur la modélisation statistique de l'environnement radio. En caractérisant statistiquement les observations fournies par les capteurs de l'environnement, nous mettons en place des règles de décisions statistiques qui prennent en considération les erreurs d'observation des métriques radio, ce qui contribue à minimiser les taux des décisions erronées. Nous visons aussi à travers cette thèse à utiliser les capacités intelligentes de prise de décision pour contribuer à la réduction de la complexité de calcul au niveau de l'équipement de réception. En effet, nous identifions des scénarios de prise de décision de reconfiguration qui limitent la présence de certains composants ou fonctions de la chaîne de réception. En particulier, nous traitons, deux scénarios de décision qui adaptent respectivement la présence des fonctions d’égalisation et du beamforming en réception. La limitation de ces deux opérations contribue à la réduction de la complexité de calcul au niveau de la chaîne de réception sans dégrader ses performances. Enfin, nous intégrons notre méthode de décision par modélisation statistique ainsi que les deux scénarios de décision traités dans une architecture de gestion d'une radio intelligente, afin de mettre en valeur le contrôle de l'intelligence et de la reconfiguration dans un équipement radio. / In this thesis we focus on the development of a decision making method for the cognitive radio receiver that dynamically adapts to its environment. The approach that we use is based on the statistical modeling of the radio environment. By statistically characterizing the observations provided by the radio sensor, we set up statistical decision rules that take into account the observations’ errors. This helps to minimize the rate of bad decisions. Also, we aim to use the intelligent capacities to reduce the computational complexity in the receiver chain. Indeed, we identify decision scenarios that limit some operators. In particular, we address two decision scenarios that adapt the presence of the equalization and of the beamforming to the environment. The limitation of these two operations helps to reduce the computational complexity in reception. Finally, we integrate our decision method and the two decision scenarios in a management architecture of reconfiguration and intelligence.
|
28 |
A smart grid ready building energy management system based on a hierarchical model predictive control. / Développement d'un gestionnaire énergétique du bâtiment compatible avec le réseau intelligentLefort, Antoine 02 April 2014 (has links)
L’intégration des énergies renouvelables produites par un bâtiment et les réseaux de fourniture, qui sont amenés à proposer des tarifications et des puissances disponibles variables au cours de la journée, entraînent une grande variabilité de la disponibilité de l’énergie. Mais les besoins des utilisateurs ne sont pas forcément en accord avec cette disponibilité. La gestion de l’énergie consiste alors à faire en sorte que les moments de consommation des installations coïncident avec les moments où celle-ci est disponible. Notre objectif a été de proposer une stratégie de commande prédictive, distribuée et hiérarchisée, pour gérer efficacement l’énergie de l’habitat. Les aspects prédictifs de notre approche permettent d’anticiper les besoins et les variations de la tarification énergétique. L’aspect distribué va permettre d’assurer la modularité de la structure de commande, pour pouvoir intégrer différents usages et différentes technologies de manière simple et sans faire exploser la combinatoire du problème d’optimisation résultant. / Electrical system is under a hard constraint: production and consumption must be equal. The production has to integrate non-controllable energy resources and to consider variability of local productions. While buildings are one of the most important energy consumers, the emergence of information and communication technologies (ICT) in the building integrates them in smart-grid as important consumer-actor players. Indeed, they have at their disposal various storage capacities: thermal storage, hot-water tank and also electrical battery. In our work we develop an hierarchical and distributed Building Energy Management Systems based on model predictive control in order to enable to shift, to reduce or even to store energy according to grid informations. The anticipation enables to plan the energy consumption in order to optimize the operating cost values, while the hierarchical architecture enables to treat the high resolution problem complexity and the distributed aspect enables to ensure the control modularity bringing adaptability to the controller.
|
29 |
A basis for intrusion detection in distributed systems using kernel-level data tainting. / Détection d'intrusions dans les systèmes distribués par propagation de teinte au niveau noyauHauser, Christophe 19 June 2013 (has links)
Les systèmes d'information actuels, qu'il s'agisse de réseaux d'entreprises, deservices en ligne ou encore d'organisations gouvernementales, reposent trèssouvent sur des systèmes distribués, impliquant un ensemble de machinesfournissant des services internes ou externes. La sécurité de tels systèmesd'information est construite à plusieurs niveaux (défense en profondeur). Lors de l'établissementde tels systèmes, des politiques de contrôle d'accès, d'authentification, defiltrage (firewalls, etc.) sont mises en place afin de garantir lasécurité des informations. Cependant, ces systèmes sont très souventcomplexes, et évoluent en permanence. Il devient alors difficile de maintenirune politique de sécurité sans faille sur l'ensemble du système (quand bienmême cela serait possible), et de résister aux attaques auxquelles ces servicessont quotidiennement exposés. C'est ainsi que les systèmes de détectiond'intrusions sont devenus nécessaires, et font partie du jeu d'outils desécurité indispensables à tous les administrateurs de systèmes exposés enpermanence à des attaques potentielles.Les systèmes de détection d'intrusions se classifient en deux grandes familles,qui diffèrent par leur méthode d'analyse: l'approche par scénarios et l'approchecomportementale. L'approche par scénarios est la plus courante, et elle estutilisée par des systèmes de détection d'intrusions bien connus tels queSnort, Prélude et d'autres. Cette approche consiste à reconnaître des signaturesd'attaques connues dans le trafic réseau (pour les IDS réseau) et des séquencesd'appels systèmes (pour les IDS hôtes). Il s'agit donc de détecter descomportements anormaux du système liés à la présence d'attaques. Bien que l'onpuisse ainsi détecter un grand nombre d'attaques, cette approche ne permet pasde détecter de nouvelles attaques, pour lesquelles aucune signature n'estconnue. Par ailleurs, les malwares modernes emploient souvent des techniquesdites de morphisme binaire, afin d'échapper à la détection parsignatures.L'approche comportementale, à l'inverse de l'approche par signature, se basesur la modélisation du fonctionnement normal du système. Cette approche permetainsi de détecter de nouvelles attaques tout comme des attaques plus anciennes,n'ayant recours à aucune base de données de connaissance d'attaques existantes.Il existe plusieurs types d'approches comportementales, certains modèles sontstatistiques, d'autres modèles s'appuient sur une politique de sécurité.Dans cette thèse, on s'intéresse à la détection d'intrusions dans des systèmesdistribués, en adoptant une approche comportementale basée sur une politique desécurité. Elle est exprimée sous la forme d'une politique de flux d'information. Les fluxd'informations sont suivis via une technique de propagation de marques (appeléeen anglais « taint marking ») appliquées sur les objets du systèmed'exploitation, directement au niveau du noyau. De telles approchesexistent également au niveau langage (par exemple par instrumentation de lamachine virtuelle Java, ou bien en modifiant le code des applications), ou encoreau niveau de l'architecture (en émulant le microprocesseur afin de tracer lesflux d'information entre les registres, pages mémoire etc.), etpermettent ainsi une analyse fine des flux d'informations. Cependant, nous avons choisi de nous placer au niveau du système d'exploitation, afin de satisfaire les objectifs suivants:• Détecter les intrusions à tous les niveaux du système, pas spécifiquement au sein d'une ou plusieurs applications.• Déployer notre système en présence d'applications natives, dont le code source n'est pas nécessairement disponible (ce qui rend leur instrumentation très difficile voire impossible).• Utiliser du matériel standard présent sur le marché. Il est très difficile de modifier physiquement les microprocesseurs, et leur émulation a un impact très important sur les performances du système. / Modern organisations rely intensively on information and communicationtechnology infrastructures. Such infrastructures offer a range of servicesfrom simple mail transport agents or blogs to complex e-commerce platforms,banking systems or service hosting, and all of these depend on distributedsystems. The security of these systems, with their increasing complexity, isa challenge. Cloud services are replacing traditional infrastructures byproviding lower cost alternatives for storage and computational power, butat the risk of relying on third party companies. This risk becomesparticularly critical when such services are used to host privileged companyinformation and applications, or customers' private information. Even in thecase where companies host their own information and applications, the adventof BYOD (Bring Your Own Device) leads to new security relatedissues.In response, our research investigated the characterization and detection ofmalicious activities at the operating system level and in distributedsystems composed of multiple hosts and services. We have shown thatintrusions in an operating system spawn abnormal information flows, and wedeveloped a model of dynamic information flow tracking, based on taintmarking techniques, in order to detect such abnormal behavior. We trackinformation flows between objects of the operating system (such as files,sockets, shared memory, processes, etc.) and network packetsflowing between hosts. This approach follows the anomaly detection paradigm.We specify the legal behavior of the system with respect to an informationflow policy, by stating how users and programs from groups of hosts areallowed to access or alter each other's information. Illegal informationflows are considered as intrusion symptoms. We have implemented this modelin the Linux kernel (the source code is availableat http://www.blare-ids.org), as a Linux Security Module (LSM), andwe used it as the basis for practical demonstrations. The experimentalresults validated the feasibility of our new intrusion detection principles.
|
30 |
Leveraging User-Generated Content for Enhancing and Personalizing News Recommendation. / Analyse des opinions pour personnaliser la recommandation d’articles dans les portails d’informationsMeguebli, Youssef 27 March 2015 (has links)
La motivation principale de cette thèse est de proposer un système de recommandation personnalisé pour les plateformes d’informations. Pour cela, nous avons démontré que les opinions peuvent constituer un descripteur efficace pour améliorer la qualité de la recommandation. Au cours de cette thèse, nous avons abordé ce problème en proposant trois contributions principales. Tout d’abord, nous avons proposé un modèle de profil qui décrit avec précision les intérêts des utilisateurs ainsi que le contenu des articles de presse. Le modèle de profil proposé repose sur trois éléments : les entités nommées, les aspects et les sentiments. Nous avons testé notre modèle de profil sur les trois applications différentes que sont l’identification des orientations politiques des utilisateurs, la recommandation personnalisée des articles de presse et enfin la diversification de la liste des articles recommandés. Deuxièmement, nous avons proposé une approche de classement des opinions permettant de filtrer et sélectionner seulement les opinions pertinentes. Pour cela, nous avons utilisé une variation de la technique de PageRank pour définir le score de chaque opinion. Les résultats montrent que notre approche surpasse deux approches récemment proposées pour le classement des opinions. Troisièmement, nous avons étudié différentes façons d’enrichir le contenu des articles de presse par les opinions : par toutes les opinions, par seulement le topk des opinions, et enfin par un ensemble d’opinions diversifiées. Les résultats montrent que l’enrichissement des contenus des articles de presse / In this thesis, we have investigated how to exploit user-generated-content for personalized news recommendation purpose. The intuition behind this line of research is that the opinions provided by users, on news websites, represent a strong indicator about their profiles. We have addressed this problem by proposing three main contributions. Firstly, we have proposed a profile model that accurately describes both users’ interests and news article contents. The profile model was tested on three different applications ranging from identifying the political orientation of users to the context of news recommendation and the diversification of the list of recommended news articles. Results show that our profile model give much better results compared to state-of-the-art models. Secondly, we have investigated the problem of noise on opinions and how we can retrieve only relevant opinions in response to a given query.The proposed opinion ranking strategy is based on users’ debates features. We have used a variation of PageRank technique to define the score of each opinion. Results show that our approach outperforms two recent proposed opinions ranking strategies, particularly for controversial topics. Thirdly, we have investigated different ways of leveraging opinions on news article contents including all opinions, topk opinions based on opinion ranking strategy, and a set of diverse opinion. To extract a list of diverse opinions, we have employed a variation of an existing opinion diversification model. Results show that diverse opinions give the best performance over other leveraging strategies.
|
Page generated in 0.0388 seconds