• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 2
  • 1
  • Tagged with
  • 19
  • 13
  • 13
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à la conception de services de partage de données pour les grilles de calcul

Antoniu, Gabriel 05 March 2009 (has links) (PDF)
Ce manuscrit décrit les travaux de recherche que nous avons mené pendant les six dernières années sur le thème du partage transparent des données réparties à grande échelle. L'infrastructure visée a été celle des grilles de calcul. Notre objectif a été de répondre à la question: comment serait-il possible de construire un système fournissant un modèle transparent d'accès aux données, tout en tenant compte des contraintes spécifiques aux infrastructures physiques utilisées (architecture hiérarchique, distribution à grande échelle, volatilité, tolérance aux défaillances, etc.)? En réponse à ce défi, nous avons proposé le concept de service de partage de données pour grilles, pour lequel nous avons défini une spécification, une architecture et une mise en oeuvre. Ce travail se situe à la frontière de plusieurs domaines: systèmes à mémoire virtuellement partagée, systèmes pair-à-pair, systèmes tolérants aux fautes. En nous appuyant sur des résultats déjà existants qui proposaient des solutions partielles à notre problème, notre approche a consisté à étendre, adapter et coupler ces solutions partielles et à rajouter les "briques" manquantes, afin de construire une solution globale, plus complexe, mais qui satisfasse l'ensemble des propriétés recherchées. Un résultat issu de cette approche est la notion de groupe hiérarchique auto-organisant, qui combine des protocoles de cohérence issus des systèmes à mémoire virtuellement partagée avec des protocoles de gestion de groupe tolérants aux fautes. Sur cette notion repose notre approche pour la définition de protocoles de cohérence tolérants aux fautes, adaptés aux grilles. Nous avons attaché une importance particulière à la validation expérimentale} de notre proposition par une mise en oeuvre et par une évaluation sur des plates-formes réelles à travers des prototypes expérimentaux. Ceci nous a permis de réaliser des expériences multisites en grandeur nature sur la plate-forme Grid'5000, avec l'objectif d'évaluer les bénéfices apportés par notre service de partage de données aux environnements de calcul réparti sur grille. A cet effet, nous avons évalué la capacité de JuxMem à s'intégrer avec plusieurs modèles de programmation pour grille d'une part (GridRPC, modèles à base de composants) et avec d'autres technologies de stockage d'autre part (Gfarm, ASSIST). Cette intégration a été réalisée en collaboration avec des équipes françaises, telles que les équipes-projets REGAL et GRAAL de l'INRIA, mais aussi avec des équipes étrangères des universités de Pise et de Calabre en Italie, d'Illinois/Urbana-Champaign aux Etats-Unis et de Tsukuba au Japon. Enfin, nous avons travaillé en étroite concertation avec l'équipe JXTA de Sun Microsystems (Santa Clara, Etats-Unis), qui a soutenu nos efforts à travers un contrat de collaboration industrielle.
12

Sécurité des systèmes d'exploitation répartis : architecture décentralisée de méta-politique pour l'administration du contrôle d'accès obligatoire.

Blanc, Mathieu 19 December 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons au contrôle d'accès obligatoire dans les systèmes d'exploitation répartis. Nous présentons une approche novatrice fondée sur un modèle de méta-politique pour l'administration décentralisée des noeuds du système réparti. Ces travaux visent la sécurité des grands réseaux partagés, i.e. les clusters, grilles ou ensembles de noeuds coopérant par Internet. L'architecture que nous proposons garantit des propriétés de sécurité globales et une bonne tolérance aux pannes. Ces propriétés, non prises en comptes par les modèles de contrôle d'accès classiques, sont obtenues grâce à notre méta-politique. Nous en présentons une formalisation, puis nous exhibons une technique de vérification garantissant l'absence de flots d'information illégaux au sein des noeuds du réseau. Nous décrivons ensuite comment le modèle peut être étendu pour la détection d'intrusions. Enfin, nous proposons une implantation supportant différents systèmes cibles tels que SELinux et grsecurity.
13

Réalisation d'un Intranet : Cohérence d'un Ensemble Réparti et Communicant, autour d'une Architecture Réflexive

SERAPHIN, John 06 February 1998 (has links) (PDF)
Un intranet permet de déployer les applications client-serveur sur l'ensemble des postes de l'entreprise. Il concerne cependant des centaines de personnes, peu familières des technologies et de l'approche hypertexte. Les problèmes de cohérence et de persistance des liens, des modèles de documents, des feuilles de style, d'administration et d'exploitation de l'ensemble, s'avèrent alors d'une acuité inconnue sur l'Internet. RICERCAR est un système réflexif qui modélise, grâce à des outils " standards ", les objets de l'utilisateur mais aussi les siens propres dans une fédération de bases de données réparties et synchronisées. Les identifiants de ces objets sont alors utilisés pour implémenter des URL stables qui assurent la cohérence globale de l'intranet. L'architecture modulaire du système offre une interface applicative permettant de l'étendre rapidement en y intégrant des données d'entreprise lesquelles, s'appuyant sur le noyau commun, bénéficient alors de la cohérence d'ensemble ainsi que des différents outils d'administration et de métrologie.
14

Numérisation rapide d'un système synchronisé en sortie d'antennes multi-réparties tel que le Radiohéliographe de Nançay / High speed digital synchronized system for antenna array such as Nançay Radioheliograph

Ait Mansour, El Houssain 19 January 2018 (has links)
Le Radiohéliographe de Nançay est le seul instrument dédié à l'imagerie du soleil en ondes décimétriques-métriques. Il fonctionne sur le principe de l'interférométrie, en utilisant 47 antennes essentiellement réparties sur des axes est-ouest (3,2 km) et nord-sud (2,5 km). Cette étude a pour but d'explorer un nouveau concept de numérisation propre à la radioastronomie du futur, appliquée ici à l'interférométrie solaire. Elle porte sur la numérisation rapide d'un système synchronisé en sortie d'antennes. Ces aspects "numérisation rapide" et "synchronisation" sont d'une importance capitale pour les prochains radiotélescopes du futur. Ils permettent de simplifier les chaînes de réception radiofréquence et de diminuer la consommation électrique ainsi que les coûts d'entretien et de la maintenance. L'application à l'observation du soleil comporte cependant des contraintes originales, comme la grande dynamique des signaux, qui ne sont pas prises en compte actuellement dans les études en cours pour les radiotélescopes du futur. Le radiohéliographe actuel a une chaîne de réception analogique avec une numérisation centralisée. La commutation entre les différentes fréquences dans la bande 150-450~MHz est réalisée d'une façon analogique et temporelle. Ceci nécessite beaucoup de calibrations analogiques et oblige de figer la gamme des fréquences (10 fréquences de largeur 1~MHz). De plus, en interférométrie métrique, les très grandes longueurs de câbles coaxiales sont onéreuses. Les signaux transmis des antennes au récepteur sont toujours sources d'erreurs et des fluctuations importantes réduisent l'information radiofréquence. Toutefois, apporter une numérisation complète de la bande (300~MHz) permet d'avoir de la souplesse dans le traitement et l'analyse des données (résolution fréquentielle et la possibilité d'observer plusieurs bandes simultanément, traitement des parasites). Ceci engendre la nécessité d'avoir une très grande précision des horloges (0,7~ps d'erreur de phase) pour cadencer des ADC (Analog-to-Digital-Converter) large bande (1~GHz d'horloge). L'objectif principal de la thèse est d'étudier la synchronisation pour l'application à un réseau d'antennes multi-réparties. Le saut technologique ainsi induit et les concepts étudiés sont un enjeu grandissant dans les grands projets européens et internationaux. / The Nançay Radioheliograph is the only instrument dedicated to the solar corona imaging in the 150-450 MHz frequency band. It operates on the principle of interferometry, using 47 antennas essentially distributed on the east-west (3.2 km) and north-south (2.5 km) axes. This study aims to explore a new technical concept for future radio astronomy, applied to solar interferometer. It deals with the rapid digitization of a synchronized system at the antenna sides. High speed digitization and high accuracy synchronization are the most important aspects for future radio telescopes. They make it possible to simplify radiofrequency reception chains and reduce their power consumption, as well as maintenance costs and complexity. The application to the observation of the sun, however, has some original constraints, such as the great dynamics of the signals, which are not taken into account in the current studies for future radio telescopes. The current radio telescope has an analog receiver with a centralized digitization. The switching time between each frequency (10 frequencies of 1 MHz width) in 150-450 MHz band analyzed introduce latency in solar images processing, also decrease the signal-to-noise ratio. In addition, in metric interferometry, the several lengths of coaxial cables in which the signal is transported from the antennas to the receiver always cause significant errors and fluctuations in the radiofrequency reception chains. Providing full digitization of the band (300 MHz) allows more flexibility in data processing and analyzing (frequency resolution and the ability to observe multiple bands simultaneously). This required high clock accuracy (0.7 ps of jitter) for ADCs clocks (1 GHz clock). Therefore, the main objective of this thesis is to reach a sub-ns global time synchronization of distributed networks such as radio interferometer array as the Nançay Radioheliograph. The technological leap thus induced is a growing challenge in major European and international projects.
15

Une approche pour optimiser les traitements des requêtes dans un environnement de bases de données réparties

Paik, In-Sup 12 February 1981 (has links) (PDF)
Cette thèse a pour objectif de proposer une démarche pour effectuer l'optimisation des requêtes dans un systeme de bases de données reparties. On énumère l'ensemble de tous les critères d'optimisation qui peuvent être pris en compte et on décide les objectifs d'optimisation. On propose une démarche progressive divisée en plusieurs étapes qui visent aux objectifs d'optimisation : la localisation, les permutations des opérations, l'allocation des données reparties par le regroupement et la distribution des opérations aux processus repartis par le partitionnement.
16

Observations et analyses quantitatives multi-niveaux d'applications à objets réparties

Ottogalli, François-Gaël 27 November 2001 (has links) (PDF)
Les moyens de traitement de l'information auxquels nous avons accès sont de plus en plus puissants, de plus en plus répartis. Des modèles de programmation, tels que la multiprogrammation légère ou la programmation par objets, leur sont appliqués afin de juguler l'accroissement de la complexité qui en découle. Mais qu'apportent ces modèles ? La mise en oeuvre de ces modèles permet-elle d'employer au "mieux" les ressources disponibles ? Pour répondre à cette question, nous nous plaçons dans une démarche de type "évaluation de performances". La problématique porte sur la reconstruction post-mortem, à partir de mesures, de la dynamique d'une exécution afin de réaliser une analyse qualitative et quantitative des ressources d'exécution consommées. L'hypothèse posée est que l'analyse des interactions entre objets, effectuée à différents niveaux d'abstraction, procure les informations suffisantes à nos études. Pour cela, nous réalisons des observations au niveau applicatif el système et cela sans modification du code exécutable original de l'application ou du noyau du système d'exploitation. Une infrastructure d'observation multi-niveaux a été réalisée dans le cadre d'applications Java réparties. Elle a été appliquée à l'étude d'un serveur multimédia Java. Une analyse de l'algorithmique et des consommations de ressources systèmes a été menée. Pour cela, les observations du niveau applicatif sont effectuées au travers de la JVMPI. Le coût moyen d'observation est de 3µs par point de mesure. Celles du niveau système sont obtenues par insertion à chaud d'un module dans un noyau Linux. De cette façon, les appels systèmes attachés aux écritures et aux lectures dans une "socket" sont déroutés. II nous est ainsi possible de reconstruire les interactions distantes entre objets Java et d'obtenir des indices de consommation des ressources systèmes. Le coût moyen d'observation est ici de 2µs par point de mesure.
17

Modélisation du comportement thermo-hydro-chemo-mécanique des enceintes de confinement nucléaire en béton armé-précontraint / Modelling of thermo-hydro-chemo-mechanical behaviour of nuclear containment in reinforced-prestressed concrete

Chhun, Ponleu 30 October 2017 (has links)
Dans le cadre de la prolongation de la vie et de la démonstration de la sécurité des bâtiments des réacteurs nucléaires suite aux accidents graves de Tchernobyl (en Ukraine, 1986) et Fukushima (au Japon, 2011), le projet " Maitrise du confinement d'une enceinte en accident " (MACENA) soutenu par l'Agence Nationale de la Recherche (ANR) a été lancé depuis 2013. Les campagnes expérimentales et les travaux de modélisation dans ce projet sont basés sur une maquette expérimentale de confinement à l'échelle 1/3 nommée VeRCoRs qui est construite et surveillée par Electricité de France (EDF). Les principaux problèmes liés à l'exploitation à long terme des centrales nucléaires de plus de 50 ans sont le vieillissement du béton et la perte de précontrainte puisque l'enceinte de confinement est en béton précontraint. Ces phénomènes conduisent à un risque de fissurations qui pourraient être déterminant si les conditions induites par l'"Accident de Perte de Réfrigérant Primaire" (APRP) sont maintenues pendant plusieurs semaines. Les caractéristiques des matériaux de construction de l'enceinte de confinement nucléaire peuvent également avoir été modifiées par les chargements avant l'APRP, conduisant éventuellement à une réduction des propriétés mécaniques (fissuration précoce, test de mises en pression, effet du séchage). Les conditions pendant l'APRP, c'est-à-dire l'augmentation de la température et de la pression relative de la vapeur dans l'enceinte, peuvent ensuite faire propager ces fissures. Ainsi, les capacités de confinement dépendent de l'histoire des sollicitations depuis le coulage du béton. Dans ce contexte, cette thèse présente une stratégie de calcul pour considérer l'accumulation de l'endommagement en utilisant un seul modèle mécanique depuis le jeune âge jusqu'à l'APRP, ce modèle est toutefois inclu dans un contexte global de modélisation faisant appel à d'autres modèles multiphysiques destinées à fournir les facteurs influents les plus importants tels que le degré d'hydratation, la température ou l'humidité. Ainsi, plusieurs modèles sont étudiés, améliorés ou testés dans ce travail de thèse : le premier modèle est consacré à la prédiction du degré d'hydratation, de la température, de la teneur en eau et de la porosité du béton au jeune âge, le second permet de suivre l'évolution de la température et de la saturation en eau en condition thermo hydrique ambiante ou proche des conditions APRP. Le modèle mécanique utilise les résultats des deux précédents pour estimer les déformations différées du béton, la relaxation des fils précontraints, et le risque de fissuration. Cette méthodologie d'analyse a été mise au point pour éviter la perte d'information concernant l'état du matériau tout au long de la vie de la structure. Les principaux avantages de la méthodologie sont la possibilité de considérer automatiquement l'accumulation de l'endommagement depuis le jeune âge jusqu'à l'APRP d'une part et d'autre part les améliorations apportées au modèle matériau pour qu'il soit utilisable en conditions APRP, qui améliore la qualité de modélisation, y compris pour le jeune âge. / In the context of life extension and safety demonstration of nuclear reactor buildings following the severe accidents of Chernobyl (in Ukraine, 1986) and Fukushima (in Japan, 2011), the "Confinement Assessment of a vessel during an Accident" (MACENA) project supported by the French National Research Agency (ANR) has been initiated since 2013. The experimental campaigns and modelling works of this project are based on an experimental containment vessel mock-up at scale 1/3 named VeRCoRs which is constructed and monitored by Electricity of France (EDF). The main issues for long-term operation of nuclear power plants that have more than 50 years old consist of ageing mechanisms in concrete and prestressing losses, as the internal concrete wall is prestressed with steel wires. These phenomena influence the cracking occurrence that can be significant if the "Loss-of-coolant accident" (LOCA) induced conditions are maintained for several weeks. The material characteristics of nuclear containment building can be modified by the loading prior to the LOCA, leading possibly to a reduction of tensile strength (early cracking, pre-operational pressurization test). The loadings during the LOCA i.e. increase of temperature and vapour relative pressure can then propagate the cracks. Thus, the material properties depend on the solicitation history since the concrete pouring In that context, this PhD thesis introduces a computational strategy adopted to consider the damage accumulation using a single mechanical model from the early age until the LOCA. Considering the effect of chemo-physical of the concrete on the response of this mechanical model along the life of the structure requires the preliminary prediction of the evolution of chemical, thermal and hydric state from casting to later ages, including the LOCA. Several multiphysics models are studied, improved or tested in this thesis work: the first model is devoted to predicting the hydration degree, temperature, water content and porosity of concrete at an early age; the second allows to follow the evolution of temperature and water saturation for later ages (ageing period and effects of the LOCA conditions on the thermal and hydric state of concrete). The mechanical model uses the results of the two previous ones to estimate the delayed deformations of concrete, the relaxation of prestressing wires, and the risk of cracking. This methodology was developed to avoid the loss of information relative to material state throughout the life of the structure. The main advantages of the methodology are the possibility to consider automatically the accumulation of damage until the LOCA on the one hand and on the other hand the improvements made to the material model to be used in the LOCA conditions, which improve the modelling quality, especially during the early age.
18

Génération automatique de distributions/ordonnancements temps réel, fiables et tolérants aux fautes

Kalla, Hamoudi 17 December 2004 (has links) (PDF)
Les systèmes réactifs sont de plus en plus présents dans de nombreux secteurs d´activité tels que l´automobile, les télécommunications et l´aéronautique. Ces systèmes réalisent des tâches complexes qui sont souvent critiques. Au vu des conséquences catastrophiques que pourrait entraîner une défaillance dans ces systèmes, suite à la présence de fautes matérielles (processeurs et média de communication), il est essentiel de prendre en compte la tolérance aux fautes dans leur conception. En outre, plusieurs domaines exigent une évaluation quantitative du comportement de ces systèmes par rapport à l'occurrence et à l'activation des fautes. Afin de concevoir des systèmes sûrs de fonctionnement, j'ai proposé dans cette thèse trois méthodologies de conception basées sur la théorie d'ordonnancement et la redondance active et passive des composants logiciels du système. Ces trois méthodologies permettent de résoudre le problème de la génération automatique de distribution et d'ordonnancements temps réel, fiables et tolérants aux fautes. Ce problème étant NP-difficile, ces trois méthodologies sont basées sur des heuristiques de type ordonnancement de liste. Plus particulièrement, les deux premières méthodologies traitent le problème de la tolérance aux fautes matérielles des processeurs et des media de communication, respectivement pour des architectures à liaisons point-à-point et des architectures à liaison bus. La troisième méthodologie traite le problème de l'évaluation quantitative d'une distribution/ordonnancement en terme de fiabilité à l'aide d'une heuristique bi-critère originale. Ces méthodologies offrent de bonnes performances sur des graphes d'algorithme et d'architecture générés aléatoirement.
19

soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle

Paraiso, Fawaz 18 June 2014 (has links) (PDF)
L'informatique multi-nuages s'est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s'exécutant à des emplacements géographiques ré- partis. L'informatique multi-nuages consiste en l'utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d'accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d'architecture, de modèle et de technologies. L'utilisation de l'informatique multi-nuages se heurte à l'hétérogénéité et à la complexité des offres de nuage. Ainsi, l'informatique multi-nuages doit faire face aux défis de la portabilité, de l'approvisionnement, de l'élasticité et de la haute disponibilité que nous identifions dans cette thèse. Dans ce travail de thèse, nous proposons un modèle d'applications nommé soCloud qui adresse ces quatre défis. C'est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d'élasticité a été proposé pour exprimer efficacement l'élasticité d'applications multi-nuages par l'abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d'applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages : Windows Azure, DELL KACE, Amazon EC2, CloudBees, OpenShift, dotCloud, Jelastic, Heroku, Appfog et Eucalyptus. Ces expériences sont utilisées pour valider la nouveauté des solutions approtées. Grâce à notre contribution, nous visons à offrir un moyen simple et efficace pour concevoir, déployer, exécuter et gérer des applications distribuées pour des environnements multi- nuages en proposant un modèle et une plateforme.

Page generated in 0.0876 seconds