• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3585
  • 1008
  • 357
  • 29
  • 7
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 5057
  • 2300
  • 1112
  • 637
  • 624
  • 586
  • 466
  • 414
  • 389
  • 371
  • 371
  • 331
  • 318
  • 309
  • 295
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Aerosol spatial and temporal variability as seen by Mobile Aerosol Monitoring System (MAMS) / Variabilité spatiale et temporelle des aérosols vue par le système mobile MAMS

Popovici, Ioana Elisabeta 18 December 2018 (has links)
Les aérosols sont une composante variable de l'atmosphère, ayant un rôle important et complexe sur la qualité de l'air et le climat. La plupart des observations d'aérosols au sol sont limitées à des emplacements fixes, ce qui réduit la connaissance sur leur variabilité spatiale. Afin de compléter cette information, un système mobile d’observation des aérosols (MAMS - Mobile Aerosol Monitoring System) a été mis au point pour explorer la variabilité verticale et spatiale des propriétés optiques et microphysiques des aérosols. MAMS est un « laboratoire » conçu sur un véhicule, se distinguant des autres plateformes transportables par sa capacité à effectuer des mesures au cours du mouvement. Equipé d'instruments de télédétection et in situ, MAMS a exploré la variabilité des aérosols au travers de campagnes mobiles sur routes dans diverses situations. Ce travail présente les études de variabilité et des événements remarquables observés en France et en Chine. L’une des variables aérosols recherchée est leur concentration massique et leur distribution verticale. Ce défi est relevé dans ce travail. Le système mobile offre une grande flexibilité, et un bon rapport coût-efficacité, car il permet de réagir rapidement en cas d’événements aérosols soudains, tels que des épisodes de pollution, poussières, incendies ou éruptions volcaniques, démontrant son utilité pour les réseaux d’observation recherche et opérationnels. Les applications de la plateforme d'exploration mobile pour les activités de validation des missions spatiales d’observation de la Terre et de l’atmosphère, pour l’évaluation des modèles et les campagnes d’intercomparaison d’instruments sont présentées. Des nouvelles perspectives, tant au niveau instrumental que méthodologique, sont introduites, laissant la place à des améliorations dans les observations mobiles des aérosols. / Aerosols are a variable component of the atmosphere, having an important and complex role on air quality and climate. Most of the ground-based aerosol observations are limited to fixed locations, narrowing the knowledge on their spatial variability. In order to overcome this issue, a compact Mobile Aerosol Monitoring System (MAMS) has been developed to explore the vertical and spatial variability of aerosol optical and microphysical properties. MAMS is a vehicle-based laboratory, distinguished by other transportable platforms through its ability to perform measurements during the movement. Equipped with remote sensing and in situ instruments, MAMS explored the aerosol variability through mobile on-road campaigns in various situations. This work presents variability studies and remarkable events observed both in France and in China. One of the researched aerosol variables is their mass concentration and vertical distribution. This challenge is taken up in this work. The mobile system presents a great flexibility and is cost-effective, being able to respond quickly in case of sudden aerosol events such as pollution episodes, dust, fire or volcano outbreaks, proving to be a useful platform for aerosol observation and operational networks. Applications of the mobile exploratory platform for validation activities of space missions observing the Earth and the atmosphere, for models’ evaluation and for instrument intercomparison campaigns are presented. New perspectives, both on instrumental and methodology levels are introduced, leaving place for improvements in the mobile aerosol observations.
242

Protocole d'appel de multiprocédure à distance dans le système Gothic : définition et mise en oeuvre.

Morin, Christine 18 December 1990 (has links) (PDF)
Ces travaux de thèse se sont déroulés dans le cadre du projet Gothic, qui avait pour objectif de concevoir et réaliser un système distribué intégré tolérant aux fautes pour un réseau local de machines multiprocesseurs dotées de Mémoires Stables Rapides (MSR). Le langage de programmation du système Gothic, appelé Polygoth, introduit le concept de multiprocédure pour la construction d'applications distribuées. La multiprocédure est une généralisation de la procédure permettant l'exécution en parallèle de plusieurs calculs. Ces travaux de thèse ont porté sur la conception de protocoles de communication fiable pour la mise en oeuvre d'un protocole d'appel de multiprocédure à distance (RMPC). Nous avons défini un système de communication fiable dont les composants essentiels sont un protocole de communication fiable par messages et un protocole de diffusion fiable ordonnée. L'originalité de ces protocoles repose sur l'utilisation de la MSR associée à chaque processeur pour y ranger les informations cruciales du système de communication et des points de reprise des processus communicants. Le système de communication fiable de Gothic dépasse le cadre du protocole RMPC. Nous avons en particulier défini un protocole de rendez-vous atomique mis en oeuvre dans le système Gothic au-dessus du protocole de communication fiable par messages.
243

Optimisations de Compilateur Optimistes pour les Systemes Réseaux

Bhatia, Sapan 09 June 2006 (has links) (PDF)
Cette these presente un ensemble de techniques qui permettent l'optimisation des performances des systèmes reseaux modernes. Ces techniques reposent sur l'analyse et la transformation des programmes impliquées dans la mise en oeuvre des protocoles reseaux. La première de ces techniques fait appel à la spécialisation de programmes pour optimiser des piles de protocoles réseaux. La deuxième, que nous avons nommée spécialisation distante, permet à des systèmes embarqués limités en ressources de bénéficier de la spécialisation de programmes en déportant à travers le réseau les opérations de spécialisation à une machine distante moins limitée. La troisième propose un nouvel allocateur de mémoire qui optimise l'utilisation des caches matériels faite par un serveur réseau. Enfin, la quatrième technique utilise l'analyse de programmes statiques pour intégrer l'allocateur proposé dans un serveur réseau existant. On appelle ces techniques optimisations compilateur parce qu'elles opèrent sur le flot des données et du contrôle dans des programmes en les transformant pour qu'ils fonctionnent plus efficacement. Les programmes réseaux possèdent une propriété fondamentale qui les rend faciles à manipuler de cette manière : ils sont basés sur une conception qui les organise en différentes couches, chacune englobant une fonctionalité bien définie. Cette propriété introduit dans le code des bloques fonctionnelles bien définis qui sont ´equivalents aux procédures et aux fonctions d'un langage généraliste. Dans la première partie de cette thèse, la spécialisation de programmes est utilisée pour créer différentes configurations de ces bloques qui correspondent à différents contextes d'utilisation. Au départ, chacun de ces bloques fonctionnels, tels que ceux utilisés dans le protocole TCP et dans le routage des trames, est conçu et développé pour fonctionner dans des conditions variées. Cependant, dans certaines situations spécifiques (comme dans le cas d'un réseaux haut-performance sans aucune congestion), certaines caractéristiques (comme les algorithmes du control de congestion de TCP) n'ont pas d'utilité. La spécialisation peut donc instancier ces bloques de code en éliminant les parties non-necessaires et en appliquant des transformations du flot des données et du contrôle pour rendre plus efficace leur fonctionnement. Une fois que ces bloques individuels sont rendus spécialisables, on bénéficie de l'encapsulation propre d'une pile de protocole en couches. Chacune de ces couches peut être spécialisée pour obtenir une pile de protocole spécialisée. Car cette façon d'utiliser la spécialisation de programmes est nouvelle et nécessite un style de programmation bien différent par rapport à ce qu'il existe : il faut de l'assistance pour les développeurs d'applications sous forme de bibliothèques et d'interfaces de programmation. De plus, la spécialisation a un inconvénient : il est très gourmand comme processus et donc ne peut pas être invoqué arbitrairement. Ces besoins sont traités dans la deuxième contribution de cette thèse, La spécialisation distante. La spécialisation distante est un ensemble de méchanismes et d'interfaces développées comme des extensions du noyau d'un système d'exploitation. Ces extensions permettent de déporter le processus de la spécialisation `à travers le réseau sur un système distant. La spécialisation distante fournit les avantages de la spécialisation dynamique de programmes à des systèmes qui en bénéficie potentiellement le plus, c'est `à dire, les systèmes embarqués. Traditionnellement, ces systèmes ont utilisé du code optimisé à la main. Cependant, produire ce code implique une procédure lente et produit des erreurs dans le code résultant. De plus, cette procédure n'arrive pas à exploiter des opportunités d'optimisation sophistiquées qui peuvent être identifiiés facilement par les outils automatisés. La spécialisation distante permet d'obtenir un tel code optimisé automatiquement à l'exécution, une fois que le système est préparé et rendu spécialisable. Une application peut dans ce cas demander des versions spécialisées des composant OS correspondant à des contextes particuliers à travers le réseau. En suite, on considère les serveurs réseaux. La spécialisation optimise effectivement du code qui est limité en performance par l'exécution des instructions sur le processeur, en éliminant des instructions non nécessaires et en rendant plus efficaces les instructions restantes. Mais pour les applications qui ont des inefficacités plus importantes, la spécialisation est inefficace, car malgré des améliorations importantes au niveau des instructions, la partie améliorée étant petite, les gains globaux sont insignifiants. Le facteur traditionnel qui limite les systèmes réseaux en performance est celui des opérations I/O. Par contre, les systèmes réseaux modernes sont maintenant équipés de suffisamment de mémoire. Donc, les op´erations I/O ne constituent plus le goulot d'´étranglement. A l'inverse, l'accès à la mémoire occupe maintenant cette position. Aujourd'hui, les accès à la mémoire cûutent jusqu'à 100 fois plus que d'autres opérations notamment la manipulation des registres. Cette thèse propose un nouvel allocateur de mémoire qui s'appelle Stingy Allocator pour minimiser le nombre de défauts cache dans un serveur orienté événement. La notion de bloques facilite, à nouveau, l'application de notre stratégie d'optimisation. Les bloques d'exécution dans un serveur orienté événement s'appelle des étapes et peuvent être identifiées et analysées par un outil automatisé une fois déclaré par un programmeur sous forme d'annotation pour le code. L'allocateur Stingy dépend du fait que ces étapes peuvent s'exécuter dans des ordres différents sans avoir un effet important sur la sémantique globale de l'application. Combiné à une nouvelle approche d'ordonnancement qui arrange différentes étapes pour limiter l'utilisation de la mémoire, Stingy Allocator assure que toute la mémoire allouée par le serveur soit bornée et qu'il reste dans les caches du système. Un ensemble d'outils a été développé pour intégrer Stingy Allocator dans des programmes existants. Ces outils ont été utilisés pour optimiser des applications existantes. Avec l'aide de ces outils, un programmeur peut modifier un serveur réseau pour qu'il se serve de Stingy Allocator sans comprendre intimement le fonctionnement de celui-ci. Chacune des parties d´ecrites au-dessus a été évaluée dans le contexte des programmes existants. La spécialisation des piles de protocole a été évaluée rigoureusement sur la pile TCP/IP du noyau de Linux. Celle-ci a aussi été ´etudiée dans le contexte de la pile TCP/IP de FreeBSD. La spécialisation distante a été utilisée pour spécialiser dynamiquement la pile TCP/IP de Linux ainsi que le serveur web TUX. Nos expériences ont démontré des réductions importantes dans la taille du code résultant (amélioré d'un facteur de 2 à 20) et des améliorations appréciables en terme de performance, les gains ´etant entre un facteur de 1.12 et 1.4.
244

Ingéniérie des exigences pour les systèmes d'information décisionnels : concepts, modèles et processus - la méthode CADWE

Gam El Golli, Inès 01 October 2008 (has links) (PDF)
La Business Intelligence (BI) se définit comme l'ensemble des technologies permettant de traiter, valoriser et présenter les données à des fins de compréhension et de décision. Elle donne aux dirigeants une visibilité sur la performance de leur entreprise afin d'améliorer la capacité de celle-ci à réagir plus rapidement que ses concurrents face à de nouvelles opportunités ou aux risques du marché. La BI s'appuie sur un système d'information spécifique appelé Système d'Information Décisionnel (SID), par opposition aux systèmes d'informations transactionnels. Les SID comportent plusieurs composants qui se résumaient autrefois en un entrepôt de données. Un entrepôt de données est une collection de données intégrées et historisées qui sont utilisées pour la prise de décisions stratégiques au moyen de techniques de traitement analytiques. La majeure partie des outils existants pour le développement des entrepôts de données se focalise sur la structure de stockage des données. L'intérêt est principalement porté à la définition de modèles « en étoile » ou « en flocons », d'intégrer des données provenant de sources hétérogènes, plus que de s'interroger sur les exigences des experts métiers. Considérer les exigences des experts métiers permettrait de développer des SID offrant une meilleure fiabilité dans la prise de décision. Par ailleurs, peu d'approches dirigées par les exigences sont proposées pour la conception des SID. Dans une approche d'ingénierie des exigences pour les SID, le principal but n'est pas de savoir « où » les données doivent être stockées mais « comment » elles devraient être structurées et « pourquoi » elles sont nécessaires. Le « pourquoi » n'est souvent pas connu et encore moins rattaché au « quoi ». Pourtant la prise en compte du « pourquoi » permettrait de justifier le choix des informations opérationnelles ‘justes nécessaires', modélisées et utilisées pour l'aide à la décision. En conséquence, la principale question de recherche à laquelle s'intéresse cette thèse est « comment spécifier les exigences des décideurs pour un système d'information décisionnel qui fournit l'information la plus adéquate». L'élément central de contribution de cette thèse est une méthode d'IE adaptée à un environnement décisionnel. Cette méthode comporte des modèles de produits et un processus qui guide la découverte des exigences et la conception du SID. Ce travail de recherche a également contribué à la définition d'une problématique qui touche directement les exigences du monde industriel et complète les recherches de la communauté scientifique, sa validation et sa résolution par la proposition d'une démarche méthodologique et un ensemble de quatre méta-modèles, quatre modèles et deux modèles complémentaires. La méthode proposée est nommé CADWE (Computer Aided Data Warehouse Engineering). Cette méthode exploite différentes sources pour découvrir les exigences d'un SID : les buts stratégiques de l'organisation, les objectifs stratégiques et tactiques des décideurs, les données des SI opérationnels existants et une base de composants réutilisables intentionnels et opérationnels. A partir de l'ensemble de ces ressources, le processus génère les schémas multidimensionnels du système cible. L'ensemble des éléments cités est le produit de l'implantation du SID. Le processus de la méthode CADWE se décompose en quatre phases qui ont pour but de (1) identifier les buts stratégiques, (2) exprimer les objectifs, (3) découvrir les exigences informationnelles et (4) définir le schéma multidimensionnel. Ce processus fait apparaitre que différents types d'exigences, rattachées à un SID, peuvent être recensées. Les exigences du SID peuvent être de quatre types : Les exigences stratégiques reliées à la stratégie de l'organisation, les exigences tactiques reliées à une perspective, les exigences opérationnalisables reliées à l'information recherchée et les exigences système reliées au système à concevoir. Ces quatre types d'exigences sont répertoriés en deux niveaux : Le niveau intentionnel et le niveau opérationnel. Enfin, la méthode proposée est illustrée au moyen d'une étude de cas industrielle.
245

Maintien de la cohérence dans les systèmes d'information répartis

Balter, Roland 02 July 1985 (has links) (PDF)
Ce travail concerne l'étude des techniques de maintien de la cohérence dans les systèmes d'information répartis. il s'appuie principalement sur l'expérience acquise dans la réalisation du projet SCOT. L'objectif consiste a définir un noyau de contrôle de la cohérence, intégrant des mécanismes de base suffisamment souples pour qu'il soit possible aux concepteurs d'applications distribuées de définir des stratégies de contrôle de la cohérence conformes aux exigences de chaque application. dans cette étude, l'accent est mis sur le traitement des erreurs et des pannes. En complément, une analyse comparative de plusieurs mécanismes de verrouillage a permis de déterminer une technique de synchronisation des accès aux objets partagés. les résultats de ce travail ont largement influencé la définition de systèmes d'information répartis en cours de réalisation dans le groupe BULL<br />~
246

Étude théorique et expérimentale d'un réfrigérateur thermo-acoustique «compact».

Poignand, Gaelle 10 July 2006 (has links) (PDF)
Les réfrigérateurs thermoacoustiques classiques sont constitués d'une source acoustique couplée à un résonateur à ondes stationnaires dans lequel est disposé un empilement de plaques (ou tout autre matériau poreux), qui est le coeur du processus thermoacoustique. L'interaction entre les ondes acoustiques et thermiques au voisinage des plaques conduit à la création d'un flux de chaleur thermoacoustique et d'un gradient de température le long de l'empilement. L'étude de tels systèmes thermoacoustiques fait l'objet des travaux de la thèse, dont l'objectif est double. <br>D'une part, dans le cadre des études menées sur la miniaturisation des systèmes thermoacoustiques, avec pour objectif l'évacuation de la chaleur des composants électroniques, une nouvelle architecture de réfrigérateurs thermoacoustiques est étudiée. Ce réfrigérateur, qui est dit "compact" car ses dimensions sont ramenées à celle de l'empilement, offre la possibilité de générer indépendamment les champs de vitesse particulaire et de pression acoustique à partir de quatre sources sonores. Ainsi, un champ acoustique optimal, qui est différent de celui obtenu dans un réfrigérateur à ondes stationnaires, peut être généré dans ce système. Ce type de réfrigérateur est étudié analytiquement et expérimentalement. Une modélisation du champ acoustique dans l'empilement d'un système compact en fonction des débits des sources, ou en fonction des tensions électriques fournies à ces sources, est proposée. La caractérisation expérimentale en terme de champ de vitesse particulaire (mesuré par Vélocimétrie Laser Doppler et Vélocimétrie par Images de Particules), et de température d'une maquette décimétrique, pour différents points de fonctionnement, est ensuite présentée. Un comportement thermique, plus complexe que celui obtenu dans un système à ondes stationnaires, est observé. Ce comportement pouvant se traduire par une diminution de ses performances, des améliorations du système sont proposées en vue de sa miniaturisation. <br>D'autre part, dans le cadre des études menées en thermoacoustique afin d'améliorer la compréhension des phénomènes physiques qui prennent place dans les systèmes, un modèle analytique du comportement en régime transitoire des réfrigérateurs thermoacoustiques classiques est mis en place. Ce modèle permet d'obtenir l'évolution temporelle de la température en tous points de l'empilement en prenant en compte les effets du flux de chaleur thermoacoustique le long de l'empilement de plaques, du flux de chaleur par conduction retour dans les plaques de l'empilement et dans le fluide, des pertes thermiques à travers les parois du tube, de l'échauffement dû aux frottements visqueux dans l'empilement, et des pertes thermiques à chacune des extrémités de l'empilement. Ce modèle est utilisé pour interpréter qualitativement le comportement transitoire d'un prototype de réfrigérateurs observé lors d'études expérimentales antérieures et permet en particulier d'interpréter les rôles joués par les différents flux de chaleur mis en jeu.
247

Vers une vision intégrale des systèmes multi-agents : Contribution à l'intégration des concepts d'agent,<br />d'environnement, d'organisation et d'institution

Tranier, John 18 December 2007 (has links) (PDF)
Dans cette thèse nous mettons en avant l'importance de considérer un SMA suivant tous ses aspects : agent, environnement, interaction, organisation et institution. Jusqu'à maintenant, ces aspects ont principalement été traités séparément, et il est difficile d'intégrer des modèles qui portent sur des aspects différents. De plus, nous constatons qu'il existe parfois une ambiguïté sur le rôle de chacun de ces aspects d'un SMA. Il y a donc un besoin de les clarifier et de permettre de tous les intégrer de manière cohérente. Dans cet objectif, nous proposons un cadre conceptuel original pour les SMA qui est fondé sur les quatre quadrants de la vision intégrale de Wilber. Ces quadrants résultent de l'intersection de deux axes d'analyse : l'axe interne – externe et l'axe individuel – collectif. Un intérêt de ce cadre conceptuel est de mettre en évidence le champ d'application de modèles existants, et de faciliter l'intégration de modèles complémentaires. De plus, nous montrons qu'il est adapté à la conception de systèmes ouverts. Enfin nous proposons le méta-modèle MASQ, qui est une formalisation de cette approche conceptuelle. MASQ permet de décrire un SMA à partir de quatre concepts fondamentaux (esprit, objet-corps, espace brut et espace culturel), de relations entre ces concepts, et de lois d'évolution qui déterminent leur dynamique. Ce méta-modèle a pour objectif de mettre en relation des modèles spécifiques complémentaires pour la conception d'un SMA.
248

Méthodes pour l'écriture des systèmes d'exploitation

Mossière, Jacques 23 September 1977 (has links) (PDF)
.
249

Vers l'exogiciel -- Une approche de la construction d'infrastructures logicielles radicalement configurables

Quema, Vivien 02 December 2005 (has links) (PDF)
La problématique de cette thèse est celle de la construction de systèmes auto-administrables, c'est-à-dire de systèmes prenant eux-mêmes en charge <br />les fonctions d'administration classiquement dévolues à des humains. La construction de tels systèmes requiert à la fois l'utilisation d'une technologie logicielle adaptée et la mise en place d'une algorithmique dédiée.<br /><br />Concernant la technologie logicielle, nous proposons une démarche de construction d'infrastructures logicielles radicalement configurables, appelée « exogiciel ». Cette démarche, inspirée de la philosophie exo-noyaux, vise à minimiser le nombre d'abstractions - fonctionnelles, non fonctionnelles et architecturales - imposées au développeur d'applications. <br />Nous illustrons ce concept d'exogiciel à travers la présentation de DREAM, un canevas logiciel à composants pour la construction d'intergiciels de <br />communication.<br /><br />Concernant les aspects algorithmiques de la construction de systèmes autonomes, une approche classique, adoptée par la théorie de la commande, <br />est de mettre en place des boucles de commande. Dans cette thèse, nous présentons deux éléments de base des boucles de commande : LeWYS, un canevas <br />logiciel à composants permettant de construire des systèmes d'observation de systèmes distribués, et FREECAST, un protocole de diffusion de groupe avec <br />ordre total uniforme. Par ailleurs, nous montrons comment les différents logiciels présentés dans cette thèse peuvent s'intégrer dans JADE, un <br />intergiciel développé au sein du projet SARDES pour construire des boucles de commande pour l'administration autonome de systèmes.
250

Spectroscopie moléculaire : calcul de spectres, mesures des températures de rotation et de vibration dans les plasmas thermiques

Faure, Géraldine 05 December 1997 (has links) (PDF)
Ce travail porte sur le diagnostic des températures de vibration et de rotation des molécules dans les plasmas thermiques.<br /><br />Ce mémoire comporte deux grandes parties : l'une concerne le calcul de spectres moléculaires et la deuxième partie est consacrée à la comparaison des spectres dans quatre cas expérimentaux différents.<br /><br />Un code de calcul a été réalisé pour simuler des spectres d'espèces diatomiques. Ce code a été essentiellement appliqué aux radicaux C2, CN, à la molécule N2 et à l'ion N2+ avec comme paramètres variables les températures de vibration et de rotation. Cette partie commence par une description de la molécule diatomique et de ses propriétés. <br />Ensuite la méthode pour calculer les spectres est explicitée : <br />détermination des longueurs d'onde,<br />de leur intensité,<br />application d'une fonction d'appareil,<br />obtention du spectre final. <br />L'influence des températures de rotation et de vibration sur les intensités des raies est prise en compte ainsi que celle de la fonction d'appareil. Ces spectres sont calculés, pour une expérience donnée, de manière à déterminer ces deux paramètres par comparaison avec les spectres obtenus par la mesure.<br /><br />Cette méthode a été utilisée sur quatre plasmas différents : <br />une flamme oxy-acétylénique,<br />un arc stabilisé dans une chambre de Maecker,<br />une torche à plasma ICP,<br />une décharge entre deux électrodes liquides. <br />Les températures de rotation et de vibration ont été déterminées par la comparaison de spectres. Ainsi des profils de températures ont pu être réalisés.<br /><br />En annexe, les valeurs numériques nécessaires aux calculs de spectres sont répertoriées pour le système de Swan de C2, le système violet de CN, le second système positif de N2 et le premier système négatif de N2+.

Page generated in 0.048 seconds