• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

IRM de perfusion T1 dans le cancer de la prostate, analyse quantitative et étude de l’impact de la fonction d’entrée artérielle sur les capacités diagnostiques des paramètres pharmacocinétiques / Dynamic Contrast Enhanced - MRI of prostate cancer : quantitative analysis and study of the impact of arterial input function selection on the diagnosis accuracy of the pharmacokinetic parameters

Azahaf, Mustapha 15 December 2015 (has links)
La séquence d’IRM de perfusion pondérée T1 après injection de Gadolinium (Gd), appelée dynamic contrast enhanced magnetic resonance imaging (DCE-MRI) fait partie du protocole d’IRM multiparamétrique (IRM-mp) réalisée pour le bilan d’extension du cancer prostatique (CaP). Le rationnel pour l’utilisation de cette séquence est d’une part le rôle capital de la néoangiogénèse dans le développement et la dissémination du CaP et d’autre part la possibilité d’imager l’angiogénèse in vivo et de façon non invasive. L’analyse quantitative nécessite un post-traitement multi-étapes complexe, dont le principe repose sur la modélisation pharmacocinétique (PC) de la biodistrubtion du Gd. Elle permet de calculer des paramètres PC reflétant la perméabilité capillaire et/ou la perfusion. Dans le CaP, ces paramètres PC ont montré leur potentiel pour évaluer l’agressivité tumorale, le pronostic, l’efficacité d’un traitement et/ou pour déterminer la dose efficace d’une nouvelle molécule anti-angiogéniques ou antivasculaires en cours de développement. Néanmoins, ils manquent de reproductibilité, notamment du fait des différentes techniques de quantifications utilisées par les logiciels de post-traitement.Nous avons développé au sein du laboratoire un outil de quantification capable de calculer une cartographie T1(0) à partir de la méthode des angles de bascule variables, nécessaire pour convertir les courbes du signal en courbe de concentration du Gd (Ct); de déterminer la fonction d’entrée artérielle (AIF – arterial input function) dans l’artère fémorale (Indivuduelle – Ind) ou lorsque cela n’était pas possible, d’utiliser une AIF issue de la littérature, telle que celle de Weinmann (W) ou de Fritz-Hansen (FH) ; et d’utiliser deux modèles PC, celui de Tofts et celui de Tofts modifié. Le logiciel a été validé sur des données simulées et sur une petite série clinique.Nous avons ensuite étudié l’impact du choix de la fonction d’entrée artériel sur les paramètres PC et notamment sur leur capacité à distinguer le CaP du tissu sain. 38 patients avec un CaP (>0,5cc) de la zone périphérique (ZP) ont été rétrospectivement inclus. Chaque patient avait bénéficié d’une IRM-mp sur laquelle deux régions d’intérêt (RI) : une tumorale et une bénigne ont été sélectionnées en utilisant une corrélation avec des cartes histo-morphométriques obtenues après prostatectomie radicale. En utilisant trois logiciels d’analyse quantitative différents, les valeurs moyennes de Ktrans (constante de transfert), ve (fraction du volume interstitiel) and vp (fraction du volume plasmatique) dans les RI ont été calculées avec trois AIF différentes (AIF Ind, AIF de W et AIF de FH). Ktrans était le paramètre PC qui permettait de mieux distinguer le CaP du tissu sain et ses valeurs étaient significativement supérieures dans le CaP, quelque soit l’AIF ou le logiciel. L’AIF de W donnait des aires sous les courbes ROC (Receiver Operating Characteristic) significativement plus grandes que l’AIF de FH (0.002≤p≤0.045) et plus grandes ou égales à l’AIF Ind (0.014≤p≤0.9). L’AIF Ind et de FH avaient des aires sous les courbes ROC comparables (0.34≤p≤0.81). Nous avons donc montré que les valeurs de Ktrans et sa capacité à distinguer CaP du tissu sain variaient significativement avec le choix de l’AIF et que les meilleures performances étaient obtenues avec l’AIF de W. / Dynamic contrast enhanced (DCE)-MRI is a T1 weighted sequence performed before, during and after a bolus injection of a contrast agent (CA). It is included in the multi-parametric prostate MRI (mp-MRI) protocol using to assess the extent of prostate cancer (PCa). The rationale for using DCE-MRI in PCa is that on one hand angiogenesis has been shown to play a central role in the PCa development and metastasis and on the other hand that DCE-MRI is a non invasive method able to depict this angiogenesis in vivo. The quantitative analysis of DCE-MRI data is a complex and multi-step process. The principle is to use a pharmacokinetic (PK) model reflecting the theoretical distribution of the CA in a tissue to extract PK parameters that describe the perfusion and capillary permeability. These parameters are of growing interest, especially in the field of oncology, for their use in assessing the aggressiveness, the prognosis and the efficacy of anti-angiogenic or anti-vascular treatments. The potential utility of these parameters is significant; however, the parameters often lack reproducibility, particularly between different quantitative analysis software programs.Firstly, we developed a quantitative analysis software solution using the variable flip angle method to estimate the T1 mapping which is needed to convert the signal-time curves to CA concentration-time curves; using three different arterial input functions (AIF): an individual AIF (Ind) measured manually in a large artery, and two literature population average AIFs of Weinmann (W) and of Fritz-Hansen (FH); and using two PK models (Tofts and modified Tofts). The robustness of the software programs was assessed on synthetic DCE-MRI data set and on a clinical DCE-MRI data set. Secondly, we assessed the impact of the AIF selection on the PK parameters to distinguish PCa from benign tissue. 38 patients with clinically important peripheral PCa (≥0.5cc) were retrospectively included. These patients underwent 1.5T multiparametric prostate MR with PCa and benign regions of interest (ROI) selected using a visual registration with morphometric reconstruction obtained from radical prostatectomy. Using three pharmacokinetic (PK) analysis software programs, the mean Ktrans, ve and vp of ROIs were computed using three AIFs: Ind-AIF, W-AIF and FH-AIF. The Ktrans provided higher area under the receiver operating characteristic curves (AUROCC) than ve and vp. The Ktrans was significantly higher in the PCa ROIs than in the benign ROIs. AUROCCs obtained with W-AIF were significantly higher than FH-AIF (0.002≤p≤0.045) and similar to or higher than Ind-AIF (0.014≤p≤0.9). Ind-AIF and FH-AIF provided similar AUROCC (0.34≤p≤0.81).We have then demonstrated that the selection of AIF can modify the capacity of the PK parameter Ktrans to distinguish PCa from benign tissue and that W-AIF yielded a similar or higher performance than Ind-AIF and a higher performance than FH-AIF.
442

Évaluation des outils de modélisation et de simulation dans le domaine de l’enseignement de la fabrication mécanique : cas des logiciels de la FAO / Assessment of modeling and simulation tools for mechanical manufacture teaching domain : case of CAM software

Abouelala, Mourad 16 October 2015 (has links)
Les outils de simulation sont des moyens pour faciliter la mise en place d'une production sur les Machines Outil à Commande Numérique, ces outils sont devenus très courants dans l'industrie et, par conséquent, dans l'éducation. Plusieurs problèmes importants émergent, telles que des questions d’ordre pédagogique, des aspects liés à l’ergonomie des interfaces, le coût d'acquisition de l'équipement et d'adaptabilité des étudiants aux multitudes de logiciels de fabrication assistée par ordinateur, de ce fait le problème de la sélection du logiciel est soulevé dans l'éducation afin d'assurer une efficacité des processus d'enseignement et d'apprentissage des étudiants.Cette thèse est conduite dans l’objectif d’étudier une méthodologie pour sélectionner un logiciel de FAO qui pourrait être efficace en tant que support d’apprentissage de la FAO en premier cycle des universités techniques, des écoles d’ingénieurs et autres établissements similaires. Les facteurs déterminants l’efficacité des étudiants utilisant un logiciel dans leurs apprentissages de la FAO ont été déduits du cadre théorique de la thèse qui s’est basé sur la théorie de l’activité. Cette théorie prend en considération le contexte global de cette activité d’enseignement-apprentissage de la FAO à savoir l’étudiant, l’artefact, le professeur, l’établissement et la communauté des éditeurs de logiciels.Le traitement statistique des données recueillies à travers les réponses d’un échantillon de 50 étudiants ont été élaboré dans le but de confirmer nos hypothèses sur les principaux critères d'évaluation de logiciel de simulation en éducation. / Simulation tools as means to facilitate setting up a production have become very common in industry and, therefore, in education. Among several significant problems, like pedagogical issues, the cost of equipment acquisition and the adaptability of students to the multitude of Computer-Aided Manufacturing, it is raise in education the problem of selecting software in order to ensure maximum effectiveness of teaching process and students learning.This research study was designed to investigate a methodology to select CAM software that could be effective as a support of CAM learning in university, taking into account different features of CAM learning. We determine the student effectiveness in learning factors of CAM software and further, determine the relationship between the different main factors. The research was conducted using a questionnaire submitted to 50 students attending the second academic year of Mechanical Design and Production. The study provides results from empirical test of these relationships and provides criteria for evaluation simulation of software in education.
443

Méthodologie d'identification et d'évitement des cycles de gel du processeur pour l'optimisation de la performance du logiciel sur le matériel / Avoidance and identification methodology of processor stall cycles for software-on-hardware performance optimization

Njoyah ntafam, Perrin 20 April 2018 (has links)
L’un des objectifs de la microélectronique est de concevoir et fabriquer des SoCs de petites tailles, à moindre coût et visant des marchés tel que l’internet des objets. À matériel fixe sur lequel l’on ne dispose d’aucune marge de manœuvre, l’un des challenges pour un développeur de logiciels embarqués est d’écrire son programme de manière à ce qu’à l’exécution, le logiciel développé puisse utiliser au mieux les capacités de ces SoCs. Cependant, ces programmes n’utilisent pas toujours correctement les capacités de traitement disponibles sur le SoC. L’estimation et l’optimisation de la performance du logiciel devient donc une activité cruciale. A l’exécution, ces programmes sont très souvent victimes de l’apparition de cycles de gel de processeur dus à l’absence de données en mémoire cache. Il existe plusieurs approches permettant d’éviter ces cycles de gel de processeur. Par l’exemple l’utilisation des options de compilation adéquates pour la génération du meilleur code exécutable possible. Cependant les compilateurs n’ont qu’une idée abstraite (sous forme de formules analytiques) de l’architecture du matériel sur lequel le logiciel s’exécutera. Une alternative est l’utilisation des processeurs « Out–Of–Order ». Mais ces processeurs sont très couteux en terme de coût de fabrication car nécessites une surface de silicium importante pour l’implantation de ces mécanismes. Dans cette thèse, nous proposons une méthode itérative basée sur les plateformes virtuelles précises au niveau du cycle qui permet d’identifier les instructions du programme à optimiser responsables à l’exécution, de l’apparition des cycles de gel de processeur dus à l’absence de données dans le cache L1. L’objectif est de fournir au développeur des indices sur les emplacements du code source de son programme en langage de haut niveau (C/C++ typiquement) qui sont responsables de ces gels. Pour chacune de ces instructions, nous fournissons leur contribution au rallongement du temps d’exécution totale du programme. Finalement nous estimons le gain potentiel maximal qu’il est possible d’obtenir si tous les cycles de gel identifiés sont évités en insérant manuellement dans le code source du programme à optimiser, des instructions de pré–chargement de données dirigé par le logiciel. / One of microelectronics purposes is to design and manufacture small-sized, low-cost SoCs targeting markets such as the Internet of Things. With fixed hardware on which there is no possible flexibility, one of the challenges for an embedded software developer is to write his program so that, at runtime, the software developed can make the best use of these SoC capabilities. However, these programs do not always properly use the available SoC processing capabilities. Software performance estimation and optimization is then a crucial activity. At runtime, these programs are very often victims of processor data stall cycles. There are several approaches to avoiding these processor data stall cycles. For example, using the appropriate compilation options to generate the best executable code. However, the compilers have only an abstract knowledge (as analytical formulas) of the hardware architecture on which the software will be executed. Another way of solving this issue is to use Out-Of- Order processors. But these processors are very expensive in terms of manufacturing cost because they require a large silicon surface for the implementation of the Out-Of-Order mechanism. In this thesis, we propose an iterative methodology based on cycle accurate virtual platforms, which helps identifying precisely instructions of the program which are responsible of the generation of processor data stall cycles. The goal is to provide the developer with clues on the source code lignes of his program’s in high level language (C/C++ typically) which are responsible of these stalls. For each instructions, we provide their contribution to lengthening of the total program execution time. Finally, we estimate the maximum potential gain that can be achieved if all identified stall cycles are avoided by manually inserting software preloading instructions into the source code of the program to optimize.
444

Modeling and methods of biomechanical heart signals processing using the conditional cyclic random process / Modélisation et méthodes de traitement des signaux biomécaniques cardiaques en utilisant le processus conditionnel cyclique aléatoire

Lutsyk, Nadiia 20 September 2016 (has links)
Ce travail a été réalisé en cotutelle entre l'Université Nationale de Technologie de Ternopil Ivan Pul'uj (TNTU, Ukraine) et l’Université Blaise Pascal (France). Il appartient au domaine scientifique de la biomécanique et de l'informatique. Le but de l'étude est de développer les modèles et les méthodes de traitement des signaux biomécaniques cardiaques par les systèmes de diagnostic assisté par ordinateur avec une précision accrue, informativité et de la complexité de calcul inférieure. La méthode d'analyse statistique du rythme cardiaque a été mise au point. Cette méthode possède une plus grande précision et informativité par rapport aux méthodes connues d'analyse du rythme cardiaque. Dans cette thèse, le logiciel existant de l'analyse des signaux cardiaques biomécaniques a été améliorée par l'ajout de nouveaux modules logiciels, qui mettent en œuvre les nouvelles méthodes de l'analyse du rythme cardiaque et de l'analyse morphologique des signaux cardiaques biomécaniques. / This work has been performed under the co-tutelle agreement between Ternopil Ivan Pul’uj National Technical University in Ternopil (TNTU, Ukraine) and the University Blaise Pascal in Clermont-Ferrand (France). It belongs to the scientific field of biomechanics and informatics. The aim of the study is to develop the mathematical models and methods of the processing of biomechanical heart signals in computer-based diagnostic systems with increased accuracy, informativeness and lower computational complexity. The method of statistical analysis of heart rhythm was developed, which is characterised by higher accuracy and informativeness compared with the known methods of heart rhythm analysis. In this thesis, the existing software of the analysis of biomechanical heart signals was improved by means of adding new software modules that implement the new methods of the analysis of heart rhythm and morphologic analysis of biomechanical heart signals.
445

Langages dédiés au développement de services de communications

Palix, Nicolas 17 September 2008 (has links) (PDF)
Les services de téléphonie IP automatisent le traitement des stimuli de communication en utilisant des ressources réseaux. Cependant, l'ajout de services rend vulnérable le système de téléphonie car certaines propriétés de fonctionnement des services déployés ne sont pas garanties. Aucune solution de développement de services ne permet de simultanément garantir des propriétés de fonctionnement et d'exploiter des ressources réseaux.<br />Cette thèse propose une approche fondée sur le concept des langages dédiés pour développer des services de communications. Deux nouveaux langages dédiés au domaine des communications ont été développés : SPL et Pantaxou. Le premier sert à router des messages de signalisation tandis que le second, plus généraliste, permet la coordination d'entités communicantes.<br />Dans cette thèse, nous démontrons, grâce à SPL et Pantaxou, que les services de communications peuvent être développés avec un langage de programmation expressif tout en préservant des propriétés critiques du domaine.
446

Étude et optimisation de l'interaction processeurs-architectures reconfigurables dynamiquement

Faten, Ben Abdallah 20 October 2009 (has links) (PDF)
Les applications de télécommunications mobiles et de multimédia, notamment dans le domaine de l'embarqué, deviennent de plus en plus complexes au niveau calculatoire et consomment de plus en plus d'énergie. Afin de palier aux besoins calculatoires et énergétiques de ces applications, les concepteurs se sont orientés vers les architectures hybrides, associant des systèmes de nature et paradigme différents. Ces architectures ont retenu l'attention des concepteurs parce qu'elles présentent un bon compromis coût/performances calculatoires d'autant plus qu'elles possèdent des propriétés énergétiques intéressantes. En outre, l'émergence dans la dernière décade des architectures reconfigurables dynamiquement associant haute performance et encore plus de flexibilité, a fait que les dernières générations des architectures hybrides associent un ou plusieurs processeurs à une ou plusieurs architectures reconfigurables dynamiquement (ARD). Cette thèse s'inscrit dans cette thématique et a ainsi pour objectif d'apporter une modélisation précise de ces architectures ainsi que des méthodologies permettant d'exploiter leurs potentiels de performances. Une modélisation des mécanismes d'échange d'informations entre un processeur couplé à une ressource reconfigurable est d'abord proposée ce qui a permis une identification précise de modèles de performances. En utilisant ces modèles de performances, une méthodologie d'adéquation algorithme architecture permettant suivant les paramètres de l'application de déterminer le couplage CPU/ARD adéquat est présentée. Nous introduisons ces modèles de performances dans le flot de développement logiciel de ces architectures afin de permettre un partitionnement temporel automatique basé sur la détermination de la surface (en nombre d'unités fonctionnelles) de l'ARD nécessaire pour avoir des performances optimales et ce en trouvant le facteur de déroulage de boucle qui assure le maximum de performances pour l'architecture hybride. Le dernier aspect de ce travail concerne la validation de ces méthodologies et leur mise en oeuvre. Nous présentons pour cela les mécanismes d'implémentation d'un démodulateur multimode DVB-T/H et d'un récepteur WCDMA dynamique sur une architecture hybride reconfigurable dynamiquement.
447

Estimation et Optimisation de la Consommation lors de la conception globale des systèmes autonomes

GUITTON, Patricia 14 October 2004 (has links) (PDF)
Les systèmes embarqués représentent une part de plus en plus importante du marché semiconducteurs. Les systèmes embarqués visent des applications plus gourmandes en capacité de calcul, augmentant du même coup la surface de silicium et l'énergie dissipée. Un des problèmes de la conception système est le patitionnement d'applications qui requiert l'utilisation de méthodes complexes. En effet, le partitionnement sous contraintes de temps, basé sur un algorithme d'ordonnancement avec un objectif de minimisation de la surface de silicium ou de la consommation est un problème NP-difficile. Ce travail de thèse étudie la prise en compte de la consommation (énergie et pic de puissance) lors de la conception globale de systèmes autonomes.<br />Une première étude consiste à estimer la consommation des divers composants d'une architecture SoC. Puis, nous nous sommes intéressés aux deux étapes principales des méthodes de partitionnement : l'allocation et l'ordonnancement. En particulier,<br />la technique d'ajustement conjoint de la tension et de la fréquence est considérée dans l'ordonnancement pour minimiser l'énergie. A la suite de ces optimisations, une gestion des modes basse consommation est réalisée, ayant pour objectif de mettre les processeurs en état de repos ou repos profond dès que la possibilité se présente, ce changement de mode permettant de gagner en consommation. Ce travail a été testé sur divers exemples, comme une application de détection de mouvement sur fond d'images<br />fixes pour caméra embarquée.
448

La dynamique des réseaux coopératifs. L'exemple des logiciels libres et du projet d'encyclopédie libre et ouverte Wikipédia.

Grassineau, Benjamin 27 January 2009 (has links) (PDF)
Les pratiques organisationnelles et sociales non-marchandes et non-hiérarchiques liées aux nouvelles technologies de l'information et de la communication suscitent aujourd'hui de nombreuses réactions et controverses. Certains acteurs et chercheurs en contestent l'existence, d'autres affirment qu'il s'agit d'un phénomène minoritaire ou non durable, d'autres enfin, les cantonnent à la sphère virtuelle. S'inscrivant dans ces débats, ce travail analyse les différentes approches théoriques qui les sous-tendent, et les confronte à une observation empirique du réseau coopératif des logiciels libres et du projet d'encyclopédie libre et ouverte Wikipédia, en les replaçant dans le contexte idéologique propre à l'activité informatique. En développant un cadre conceptuel adéquat pour l'étude de ces entités sociales qui s'appuie sur l'interactionnisme symbolique et la sociologie critique d'Ivan Illich, cette réflexion dévoile la spécificité organisationnelle, économique et sociale de ces nouvelles pratiques, et expose ce qui a favorisé leur développement et leur croissance au cours de ces trois dernières décennies. L'accent est tout particulièrement mis sur l'intégration des facteurs culturels et sur la compréhension des mécanismes qui favorisent l'essor et l'expansion de ces nouvelles pratiques dans d'autres activités. Au final, cette réflexion rejoint un des questionnements fondamentaux de la société contemporaine, à savoir, celui posé par le développement de l'économie non-marchande et non-hiérarchique et par la déprofessionnalisation des activités immatérielles.
449

Observations microstructurales et modélisation statistique des propriétés diélectriques de composites

Le Coent, Anthony 29 March 1995 (has links) (PDF)
Les campagnes de recherche - comprenant la conception de nouveaux matériaux, la prospection, la réalisation de composites et leur caractérisation - sont longues. Pour l'ingénieur ou le chercheur, relier la microstructure et les propriétés physiques macroscopiques des matériaux le plus en amont, permet de réduire la durée et le coût de ces études. Nous nous intéressons aux propriétés diélectriques d'un composite particulier, formé d'une matrice époxy contenant des inclusions d'agrégats de noir de carbone. Nous détaillons le processus global, de la réalisation du composite à sa modélisation. Des échantillons de composite sont réalisés en faisant varier des paramètres de préparation. Des mesures diélectriques, électriques et d'autres mesures physiques situent le niveau des propriétés macroscopiques des échantillons. L'observation du composite par microscopie électronique à transmission à plusieurs grandissement permet d'appréhender sa morphologie. Les micrographies sont traitées par analyse d'images pour caractériser la géométrie du composite en quelques grandeurs. Les lois statistiques de changement d'échelle permettent, à partir de données sur la microstructure, d'obtenir un encadrement de la permittivité de composites. Les lois statistiques de changement d'échelle sont une méthode de modélisation récente, elles permettent en particulier :
450

Modèles de Sécurité logicielle pour les plates-formes à composants de service (SOP)

Parrend, Pierre 09 December 2008 (has links) (PDF)
Les plates-formes dynamiques de services (SOP, pour ?service-oriented programming') sont des environnements d'exécution génériques qui définissent un modèle d'architecture logicielle structuré: les composants communiquent par le biais d'interfaces explicites, ce qui facilite la configuration et l'évolution de ces systèmes. Les plates-formes SOP utilisent leur envi- ronnement réseau pour réaliser des tâches fonctionnelles, mais également pour améliorer leur capacité de gestion et d'évolution. Elles sont exploitées dans des contextes variés, des serveurs d'application aux systèmes embarqués médicaux ou automobiles. La flexibilité apportée par les plates-formes SOP permet l'intégration de composants de plusieurs sources aussi bien lors de la conception qu'à l'exécution. Cette tendance induit cependant un risque important. Peu d'outils existent pour évaluer la qualité des systèmes résultants, et aucun ne garantit que les composants sélectionnés ne sont pas malicieux. Dans des contextes applicatifs tels que les systèmes e-Business ou les systèmes embarqués sensibles, l'existence d'attaques n'est pas à exclure. L'assurance de sécurité logicielle (Software Security Assurance) définit des méthodes pour le développement d'applications sûres, mais se concentre sur les systèmes monolithiques. Son principe est le suivant: les vulnérabilités doivent être identifiées et résolues tôt dans le cycle de vie pour éviter les attaques lors de l'exécution et limiter les coûts de réparation. Cepen- dant, cette approche ne peut s'appliquer directement aux applications à composants, où le développement n'est pas nécessairement contrôlé par l'intégrateur, et où l'intégration peut avoir lieu à l'exécution de manière automatisée. Nous proposons par conséquent de réaliser une analyse de sécurité pour une plate-forme SOP de référence, la plate-forme OSGi, et de fournir des mécanismes de protection adaptés aux besoins ainsi identifiés. L'analyse de sécurité de la plate-forme OSGi est réalisée par une méthode spécifique, SPIP , le Processus Spirale de Prévention d'Intrusion (Spiral Process for Intrusion Prevention). Elle permet l'évaluation des vulnérabilités du système cible et de la protection apportée par les mécanismes de sécurité associés. Le résultat de l'analyse est : les vulnérabilités de la plate-forme Java/OSGi, et les vulnérabilités des composants SOP Java. Plusieurs mécanismes de protection sont développés pour prévenir l'exploitation des vul- nérabilités identifiées. Ils sont implémentés dans la plate-forme elle-même et au niveau des composants. OSGi Robuste (Hardened OSGi) est un ensemble de recommandations pour la mise en oeuvre de plates-formes OSGi résistantes. CBAC, le contrôle d'accès basé composants (Component-based Access Control) est un mécanisme de contrôle d'accès qui vérifie lors de l'installation qu'un composant n'exécute que les appels explicitement autorisés. Son objectif est d'être plus flexible que le gestion de sécurité Java, de garantir que seuls les composants valides soient installés et de réduire autant que possible le coût de vérification en terme de performance. WCA, l'analyse de composants faibles (Weak Component Analysis), est un outil pour identifier les vulnérabilités exploitables dans les composants SOP selon l'exposition des classes: les objets partagés tels les services SOP, les classes partagées et les classes internes des composants ne sont pas concernés par les mêmes vulnérabilités. Nos propositions sont validées par leur intégration avec une JVM sécurisée dédiée aux applications OSGi, la JnJVM. Les propriétés de sécurité de l'environnement ainsi réalisé sont encourageantes.

Page generated in 0.0459 seconds