• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1489
  • 320
  • 149
  • 87
  • 22
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2200
  • 1245
  • 349
  • 255
  • 238
  • 184
  • 169
  • 168
  • 167
  • 161
  • 152
  • 149
  • 143
  • 140
  • 122
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Une application de la statistique descriptive en informatique

Da Graça Martins, Maria Eugénia 24 September 1979 (has links) (PDF)
Un problème fondamental dans la gestion d'un système de mémoire virtuelle est celui de décider quelles sont les pages qui doivent occuper la mémoire réelle et combien de pages physiques de la mémoire réelle doivent être allouées à un programme. L'objet de cette étude est de trouver un compromis optimum entre les deux objectifs suivants : a) minimiser le nombre de transferts de pages entre la mémoire réelle et la mémoire virtuelle ; b) minimiser la taille de la mémoire réelle
462

Les champs aléaotoires à longue mémoire

Lavancier, Frédéric 12 December 2005 (has links) (PDF)
Nous étudions des champs aléatoires sur le réseau Z^d. Ils sont supposés stationnaires, du second ordre et à longue mémoire, propriété due à la non sommabilité de leur fonction de covariance. Contrairement aux travaux antérieurs, leur longue mémoire peut être non isotrope. Lorsque ces champs sont linéaires, nous obtenons la convergence fonctionnelle de leurs sommes partielles. A partir de ce résultat, nous proposons une procédure pour tester la faible dépendance contre la forte dépendance d'un champ. Nous montrons par ailleurs la dégénérescence asymptotique du processus empirique de champs à longue mémoire ; les applications concernent notamment la convergence des U-statistiques. Nous étudions enfin certaines formes quadratiques de champs à longue mémoire. Cela nous permet d'obtenir en application la loi limite des covariances empiriques et constitue une première étape dans l'étude de l'estimateur de Whittle des paramètres de longue mémoire d'un champ.
463

Modèles et outils logiciels pour l'annotation sémantiquede documentspédagogiques

Mille, Dominique 26 October 2005 (has links) (PDF)
Cette thèse s'intéresse aux annotations produites par des apprenants sur des documents électroniques. Les annotations sont utiles tant pour mémoriser une démarche de compréhension que pour retrouver facilement des informations. Nous remarquons que l'annotation électronique est peu pratiquée en raison des inconforts de lecture et d'annotation. De plus les annotations sont porteuses d'une sémantique implicite, perdue lors des réutilisations, comme par exemple des liens entre couleur et objectif de l'annotation. Dans ce contexte, notre objectif est de proposer des formalismes et des outils efficaces pour l'annotation électronique de ressources pédagogiques par des apprenants. Cette efficacité signifie que les dispositifs doivent être adaptés aux niveaux logiciel et matériel, qu'ils anticipent les réutilisations pour éviter l'impression systématique des documents, et qu'ils offrent les avantages d'un traitement informatisé. Elle signifie également que les annotations doivent être conservées dans leur intégralité : il est donc nécessaire d'expliciter leur sémantique tant au niveau d'une représentation formelle qu'au niveau d'un annoteur.<br />Plus précisément, notre travail comporte une proposition de représentation formelle de l'annotation, que nous implantons et testons lors d'expérimentations écologiques. En résultat, nous produisons une spécification d'annoteur efficace basé sur les métaphores du papier et de la trousse : le lecteur conserve ses habitudes papier lors de la lecture et de la création et il bénéficie des avantages d'un traitement informatisé pour la valuation, la recherche et le partage.
464

DRAC: Un système de contrôle d'exécution pour multiprocesseur à mémoire partagée

Pillon, Mauricio 30 November 2004 (has links) (PDF)
Les besoins continus en puissance de calcul restent un moteur important dans l'évolution des technologies des ordinateurs. Dans le domaine scientifique, par exemple, on trouve facilement des applications capables d'épuiser la puissance de calcul même sur des machines parmi les plus récentes. Dans le cas specifique des machines parallèles, nous nous intéressons au problème de performances des machines multiprocesseurs à mémoire partagée. Le rapport entre les capacités de la hiérarchie mémoire et la vitesse des processeurs est à l'origine d'un des problèmes de performances fondamentaux. On parle de contention ou de goulot d'étranglement mémoire afin de signifier que la saturation de l'accès à la partie haute de la hiérarchie mémoire est responsable d'une baisse de performances. La technologie de la fabrication des processeurs évolue en effet généralement plus rapidement que celle de la mémoire centrale. L'interconnexion entre la mémoire centrale et les processeurs est un des points cruciaux dans l'architecture des multiprocesseurs, en effet ce point est fréquent. Dans ce contexte, nous proposons l'utilisation des compteurs matériels en tant qu'élément d'un système de contrôle permettant de modifier l'ordonnancement de l'exécution des processus en présence d'une contention. La politique de contrôle retenue consiste à maximiser le rendement de la machine. Le contrôle d'exécution des processus est basé sur l'estimation des performances via l'observation de l'utilisation mémoire. Ce mécanisme d'estimation est l'issue d'une étude sur l'impact des capacités des hiérarchies mémoires sur les performances des multiprocesseurs.
465

Protection d'une mémoire virtuelle répartie par capacités implicites

Saunier, Frederic 25 October 1996 (has links)
Le contrôle d'accès d'une mémoire virtuelle répartie dans les systèmes à espace d'adressage uniforme est souvent réalisée par capacités logicielles à mot de passe. Ceci permet à l'utilisateur de manipuler les capacités comme des données banalisées. Cette thèse reprend l'idée de protection par capacités logicielles, mais en les cachant à l'utilisateur. On est alors capable d'ajouter la protection à une application répartie existante sans toucher au code de cette application. Les résultats sont étayés par la réalisation et l'évaluation d'un prototype.
466

Conception et réalisation d'une mémoire partagée répartie

Han, Jay 25 November 1996 (has links) (PDF)
Arias est un système de mémoire partagée répartie (MPR) réalisé dans le cadre du projet SIRAC, qui étudie les supports logiciels pour les applications distribuées. Une MPR facilite grandement la programmation de telles applications. Nous retraçons l'évolution des systèmes distributés qui ont abouti à cette idée, et caractérisons les diverses particularités de quelques projets antérieurs. Nous édictons nos objectifs propres et dégageons les spécifications qui sont souhaitables pour notre projet. Partant de là, et après avoir esquissé l'architecture générale d'Arias, nous nous concentrons sur les problèmes liés à la répartition de la mémoire. En particulier, l'allocation et la localisation de la mémoire dans une MPR à grand espace d'adresses posent des difficultés de réalisation qui ont des conséquences importantes dans la conception de l'interface logicielle avec l'application et le système d'exploitation sous-jacent. L'analyse de ces difficultés nous mène au module d'allocation et de localisation que nous décrivons. Une fois son implémentation décrite dans ses détails techniques, nous en explicitons les paramètres d'ajustement et soulignons leur impact à travers des mesures et des simulations. Nous montrons plusieurs configurations envisageables, dont certaines sont spécialement adaptées à certains types d'utilisation. Pour finir, nous concluons sur les leçons apprises de ce travail, tant du point de vue de ce qui a été réalisé que sur les travaux futurs et les perspectives générales des MPR.
467

Evaluation d'architectures parallèles à mémoire virtuelle partagée distribuée : étude et réalisation d'un émulateur

Jacquiot, Olivier 27 September 1996 (has links) (PDF)
Le but principal de cette thèse est d'étudier et de réaliser un émulateur performant de machines parallèles dotées d'une mémoire virtuelle partagée distribuée. Cet émulateur doit permettre d'évaluer la charge induite par des machines de ce type sur le réseau d'interconnexion, afin d'en choisir la meilleure topologie. Pour cela, ce travail est divisé en deux parties. La première est constituée d'une étude de l'éventail des techniques pouvant être utilisées lors de la construction d'une hiérarchie de mémoires ou lors du maintien de la cohérence des données contenues dans cette hiérarchie. La seconde partie décrit le fonctionnement de l'émulateur. Pour que celui-ci soit performant, il faut qu'il puisse faire varier un nombre important de paramètres de la machine émulée et qu'il puisse utiliser un grand nombre d'applications de taille significative. Pour cela, nous utilisons une technique qui permet de réellement exécuter les instructions et de ne simuler que les envois de pages sur le réseau. Les paramètres de l'émulateur sont le nombre de processeurs, les caractéristiques du réseau (débit, latence), et le type de maintien de la cohérence utilisé (5 possibles). En ce qui concerne les applications, il est possible de faire varier la taille et pour certaines la répartition des données. L'émulateur construit s'exécute au-dessus d'un micro-noyau MACH et d'un serveur UNIX. Il exploite certaines fonctionnalités du micro-noyau MACH, en particulier les paginateurs externes.
468

Conception et réalisation d'un service de stockage fiable et extensible pour un système réparti à objets persistants

Knaff, Alain 21 October 1996 (has links) (PDF)
Cette thèse décrit la conception et la mise en oeuvre d'un service de stockage fiable et extensible. Les travaux ont été faits dans le cadre de Sirac, un système réparti à objets persistants. L'objectif de Sirac est de fournir des services pour le support d'objets persistants répartis et pour la construction d'applications réparties. Les deux idées qui ont dirigé cette étude sont la souplesse des services offerts et la coopération entre les sous-systèmes. La souplesse, rendue possible par la conception modulaire du système, améliore les performances, étant donné que les applications doivent seulement payer le prix des services qu'elles utilisent. La coopération (par exemple entre le stockage et la pagination) permet aux différents modules de prendre des décisions en connaissance de cause. La thèse présente dans le second chapitre un état de l'art en trois parties. La première partie s'attache à étudier la manière dont un grand espace de stockage unique peut être présenté aux applications. La deuxième partie analyse la mise en oeuvre du stockage fiable en étudiant notamment différentes réalisations de l'atomicité. La troisième partie enfin montre comment ces deux aspects sont mariés dans les systèmes modernes. Dans le troisième chapitre, nous faisons un rapide tour d'horizon d'Arias et de ses différents sous-systèmes~: protection, cohérence, synchronisation et stockage. Au sein des différents services, nous distinguons d'un côté des modules génériques de bas niveau, et d'un autre côté des modules spécifiques aux applications. Les modules génériques mettent en oeuvre les mécanismes tandis que les modules spécifiques définissent la politique. Certains sous-systèmes sont toujours présents, comme la gestion de la cohérence et de la synchronisation, alors que d'autres, comme par exemple la gestion de la protection ou la gestion de la permanence, sont optionnels. Dans les quatrième et cinquième chapitres, nous nous concentrons sur le service de stockage. Le service générique de stockage est subdivisé en deux parties~: d'abord un gestionnaire de volume, qui assure la pérennité des données, et puis un service de journalisation, qui assure l'atomicité des transactions. Ce système a été mis en oeuvre au dessus d'AIX, et la coopération entre les différents modules s'appuie sur le mécanisme des streams. Les performances de notre système sont bonnes, et s'approchent des limites imposées par le matériel dans les cas favorables. Les projets futurs incluent la fourniture d'un vaste éventail de protocoles de journalisation spécifiques, le support de volumes dupliqués ainsi que l'optimisation du gestionnaire du volume.
469

TELA : Structure et algorithmes pour la traduction fondée sur la mémoire

Planas, Emmanuel 07 July 1998 (has links) (PDF)
Cette étude concerne les outils d'aide à la traduction fondée sur la mémoire (OTFM). La première partie offre un état de l'art de ces outils. Il est ensuite expliqué comment les OTFM de première génération, très utiles à l'industrie de la traduction, ne permettent toutefois pas de réaliser correctement certaines opérations basiques. On démontre alors que de ces faiblesses proviennent principalement du type de représentation des données, interne aux OTFM. Deux représentations complémentaires sont alors proposées : une représentation primaire fondée sur XML ou les données sont séquentielles, et une forme analytique composée d'un étagement de treillis liés : la structure "TELAM". Celle-ci permet d'éclater les données selon leur "nature" en autant de treillis. Cette seconde partie se termine par la présentation d'un modèle abstrait pour TELAM, appelé TELA. Une représentation objet d'une part et fondée sur le formalisme XML d'autre part, sont proposées pour TELA. La troisième partie propose des algorithmes pour manipuler les structures TELAM, et evalue leurs complexités statiques et dynamiques. La notion de similitude est proposée pour calculer les proximités de deux segments de traduction par le nombre d'opérations d'édition élementaires nécessaires pour passer de l'un à l'autre. Ces opérations s'appliquent sur chacun des étages des structures TELAM représentant chacun des segments. Deux algorithmes sont proposés à partir des travaux de Wagner et Fisher (1974) : l'algorithme X' pour évaluer la distance d'édition entre deux segments, et l'algorithme Y' pour donner l'une des suites d'opérations élementaires qui font passer de l'un à l'autre. On montre alors comment utiliser les structures TELAM et les algorithmes X' et Y' pour réaliser un nouveau système de traduction fondée sur la mémoire capable d'adapter et composer les unités de traduction. En outre, il devient alors possible de transférer les objets non textuels et la mise en forme depuis le segment d'entrée vers sa traduction.
470

Un modèle de contrôle d'accès générique et sa réalisation dans la mémoire virtuelle répartie unique Arias

Jensen, Christian Damsgaard 29 October 1999 (has links) (PDF)
Un système à mémoire virtuelle répartie unique permet l'utilisation des adresses virtuelles comme identificateurs globaux uniques. Il faut donc séparer la résolution des adresses et le contrôle d'accès, parce qu'une adresse virtuelle est potentiellement visible par toute application dans le système. Nous proposons un modèle de contrôle d'accès pour une mémoire virtuelle répartie unique qui se base sur le modèle à capacités cachées. Le modèle se base sur les notions suivantes : la capacité (un droit d'accès simple), le domaine de protection (définit le contexte de protection par l'ensemble des capacités disponibles dans le domaine) et l'appel de changement de domaine (qui permet d'appeler une procédure désignée dans un autre domaine de protection). Deux principes de base sont très importants pour le modèle : l'utilisation des capacités confinées et la délégation contrôlée à travers des interfaces de protection. Les interfaces de protection permettent une séparation entre la spécification de la protection et le code de l'application. L'évaluation de notre modèle indique qu'il permet de réaliser la plupart des modèles de contrôle d'accès existants y compris le modèle mandataire de Bell & LaPadula. Le modèle à capacités cachées a été réalisé dans Arias, une mémoire virtuelle répartie unique conçue et développée au sein du projet SIRAC. Les expériences avec cette réalisation montrent que la séparation entre la spécification de la protection et le code de l'application facilite la réutilisation logicielle et l'évolution de l'application. L'efficacité d'un appel de changement de domaine correspond à celui d'un appel RPC standard.

Page generated in 0.2943 seconds