• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
372

CARTOGRAPHIE AGROCLIMATIQUE A MESO-ECHELLE : METHODOLOGIE ET APPLICATION A LA VARIABILITE SPATIALE DU CLIMAT EN GIRONDE VITICOLE. Conséquences pour le développement de la vigne et la maturation du raisin

Bois, Benjamin 12 December 2007 (has links) (PDF)
Une connaissance approfondie de la variabilité spatiale du climat est essentielle en agronomie et agroforesterie, afin d'évaluer les capacités de production d'une région ou encore la pression phytosanitaire potentielle d'un ravageur. En viticulture, le climat conditionne largement la cinétique de développement de la vigne ainsi que la maturation du raisin. L'objectif de ce travail était de caractériser la variabilité spatiale du climat à méso-échelle en utilisant différentes techniques de spatialisation au pas de temps quotidien de variables climatiques et d'indices agroclimatiques, afin d'évaluer ses conséquences sur le développement de la vigne et sur la maturation du raisin. La région considérée est la Gironde viticole (aire de production des vins de Bordeaux). Six variables ont été étudiées : les températures minimales et maximales, le rayonnement global, l'évapotranspiration potentielle, les précipitations et le bilan hydrique. Pour chaque variable, la méthode de spatialisation fournissant les résultats les plus pertinents à des coûts informatique et temporel raisonnables a été sélectionnée. La propagation des erreurs produites par la spatialisation des variables climatiques au pas de temps quotidien dans les modèles agroclimatiques a ensuite été évaluée. Cette propagation est non négligeable dans le calcul des sommes de températures et des bilans hydriques. La cartographie des variables climatiques a permis de caractériser la variabilité spatiale du climat en Gironde viticole et de bien quantifier des différences entre aires d'appellation qui n'étaient connues que de manière très empirique. Les résultats de cette étude permettront de mieux adapter les techniques viticoles et le choix du matériel végétal aux possibilités offertes par le milieu.
373

Étude de la Distribution, sur Système à Grande Échelle, de Calcul Numérique Traitant des Matrices Creuses Compressées

Hamdi-Larbi, Olfa 27 March 2010 (has links) (PDF)
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre coté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i.e. la résolution de systèmes linéaires et le calcul d'éléments (valeurs/vecteurs) propres de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de résolution de systèmes linéaires et de calcul d'éléments propres et ce, dans le cas creux. Le produit matricevecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, (i) le prétraitement, (ii) le traitement et (iii) le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées (se ramenant en fait aux lignes de la matrice creuse) sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente et ce, afin d'en tirer des conclusions adéquates.
374

Modélisation du cycle d'aérosols naturels et anthropiques en Asie orientale

Lasserre, Frédéric 29 June 2006 (has links) (PDF)
Cette thèse est une contribution au thème crucial de l'impact climatique de la matière particulaire dans l'atmosphère, dont on soupçonne qu'il pourrait être du même ordre que l'effet de serre des gaz, mais peut-être de signe opposé. L'outil central de ce travail est le modèle météorologique RAMS. Ce travail exploite les rares données de terrain disponibles dans cette région, données indispensables pour la validation des calculs par modèle. Sur la base d'un DPM validé en Afrique, nous proposons ainsi un cadastre d'émission éolienne de poussières désertiques 1°X1° recouvrant les zones désertiques et semi-arides en Mongolie et Chine du Nord. Cette source est validée par l'étude d'une forte tempête de poussieres minérales datant d'Avril 1998. Nous montrons ensuite son aptitude à restituer en détail un épisode de tempête de sable enregistré au printemps 2002 en un site expérimental de la campagne ACE-ASIA. Enfin nous couplons le transport atmosphérique des poussières désertiques issues de ce cadastre avec les émissions de certains des gaz et aérosols les plus représentatifs des émissions anthropiques de polluants en Asie de l'Est. Les processus de transport et de chimie très simplifiés appliqués aux BC (particules carbonées) et au SO2 aboutissent à des mélanges et des captures quantifiables de sulfates par les poussières minérales. Les calculs d'épaisseurs optiques caractéristiques de chaque polluant dans les mélanges sont en bon accord avec les données photométriques (Lidar, AERONET, etc.) et permettent de conclure que le parti pris de notre méthode simplificatrice donne une approche des observations à la fois correcte et aisément interprétable par le nombre réduit des paramètres choisis
375

Test et Validation des Systémes Pair-à-pair

Cunha De Almeida, Eduardo 25 February 2009 (has links) (PDF)
Le pair-à-pair (P2P) offre de bonnes solutions pour de nombreuses applications distribuées, comme le partage de grandes quantités de données et/ou le support de collaboration dans les réseaux sociaux. Il apparaît donc comme un puissant paradigme pour développer des applications distribuées évolutives, comme le montre le nombre croissant de nouveaux projets basés sur cette technologie. Construire des applications P2P fiables est difficile, car elles doivent être déployées sur un grand nombre de noeuds, qui peuvent être autonomes, refuser de répondre à certaines demandes, et même quitter le système de manière inattendue. Cette volatilité des noeuds est un comportement commun dans les systèmes P2P et peut être interprétée comme une faute lors des tests. Dans cette thèse, nous proposons un cadre et une méthodologie pour tester et valider des applications P2P. Ce cadre s'appuie sur le contrôle individuel des noeuds, permettant de contrôler précisément la volatilité des noeuds au cours de leur exécution. Nous proposons également trois différentes approches de contrôle d'exécution de scénarios de test dans les systèmes distribués. La première approche étend le coordonnateur centralisé classique pour gérer la volatilité des pairs. Les deux autres approches permettent d'éviter le coordinateur central afin de faire passer à l'échelle l'exécution des cas de tests. Nous avons validé le cadre et la méthodologie à travers la mise en oeuvre et l'expérimentation sur des applications P2P open-source bien connues (FreePastry et OpenChord). Les expérimentations ont permis de tester le comportement des systèmes sur différentes conditions de volatilité, et de détecter des problèmes d'implémentation complexes.
376

Transfert radiatif dans les nuages de couche limite hétérogènes

Chosson, Frédérick 27 February 2006 (has links) (PDF)
L'hétérogénéité des nuages de couche limite est la somme de la variabilité 3D de l'eau nuageuse et de la variabilité microphysique décrivant les distributions dimensionnelles locales des gouttelettes. L'impact radiatif de ces variabilités est étudié d'une part sur le calcul de l'albédo d'une maille de modèle de grande échelle (GCM), et d'autre part sur la restitution des paramètres nuageux par satellite. La méthode employée utilise conjointement des simulations LES, 2 schémas extrêmes d'entraînement/mélange et un modèle de transfert radiatif 3D. Les résultats sont contraints par comparaison à des mesures in-situ et de télédétection. Il est montré que la variabilité microphysique est la source principale d'incertitude tant pour le calcul de l'albédo dans les GCM que pour la restitution des paramètres nuageux microphysiques. Elle peut conduire à une surestimation importante de l'effet indirect des aérosols dans les GCM et une sous-estimation importante de sa mesure par télédétection.
377

Relations Structure/Composition/Propriétés de revêtements électrodéposés de nickel de taille de grain nanométrique

Godon, Aurélie 03 December 2010 (has links) (PDF)
Les travaux présentés dans ce mémoire ont pour but de mieux comprendre les relations entre la microstructure des revêtements métalliques nanocristallisés et leurs propriétés électrochimiques et mécaniques. Les dépôts de nickel sont élaborés par électrodéposition en courant continu et en courant pulsé dans un bain au sulfamate de nickel avec des sels de haute pureté, sans additif afin de minimiser les risques de contamination. Une caractérisation précise des états métallurgiques développés est réalisée au moyen de diverses techniques (MEB, MET, DRX, AFM, EBSD, SIMS, GDOES) afin d'évaluer la microstructure à différentes échelles (taille de grain, texture, contraintes internes, type de joints de grains) et d'identifier les contaminants. Trois types de texture ont été développés, associés à différentes tailles d'hétérogénéités structurales allant du micromètre à quelques dizaines de nanomètres. Une loi dite "d'échelle" a été mise en évidence, permettant de corréler les résultats obtenus par les diverses méthodes d'analyse. L'affinement de la taille de grain se traduit par une augmentation de la contamination dans les dépôts et entraîne une augmentation de la microdureté. La loi de Hall-Petch est influencée par l'orientation cristallographique ce qui a pu être relié à la nature des joints de grains et à la contamination des revêtements. Une étude préliminaire de la réactivité électrochimique en milieu acide a montré le rôle marqué des effets de surface (contamination et rugosité de surface). La réalisation d'un polissage électrolytique sur les revêtements a permis d'étudier l'influence des paramètres métallurgiques (taille de grain, contamination, nature des joints de grains) sur la réactivité. Les courbes de polarisation dans le domaine anodique et dans le domaine cathodique ont été simulées à l'aide de modèles cinétiques. Les résultats obtenus suggèrent que les joints de grains ont un effet qui peut être activant ou désactivant suivant l'étape considérée, ces effets pouvant être atténués par la présence d'impuretés. Les modifications de propriétés mécaniques et électrochimiques des revêtements ne peuvent être attribuées à une diminution de la taille de grain seule.
378

Evaluation participative de scénarios : quelles perspectives pour les systèmes agricoles camarguais ?

Delmotte, Sylvestre 19 December 2011 (has links) (PDF)
Les systèmes agricoles sont en constante évolution sous les effets conjugués d'innovations techniques et organisationnelles et de changements du contexte socio-économique. A l'échelle d'un territoire, des acteurs locaux peuvent encourager et accompagner des changements de ce type s'ils ont une vision claire de leurs impacts potentiels. L'objectif de cette thèse est d'élaborer et d'appliquer une démarche permettant d'assister agriculteurs et autres acteurs locaux d'un territoire dans la construction et l'évaluation de scénarios d'évolutions des systèmes agricoles. Une démarche basée sur des approches permettant une analyse prospective, multicritères, multi-échelles et participative d'évaluation des systèmes agricoles a été développée. Elle a été mise en oeuvre en Camargue (sud-est de la France), avec des exploitants céréaliers et des acteurs de la production agricole et de la gestion du territoire. Des scénarios portant sur la réforme de la politique agricole commune (PAC) en 2012-2014, ainsi que sur des objectifs nationaux de réduction de la consommation de pesticides et de développement de l'agriculture biologique ont été développés. Ces perspectives d'évolution des systèmes agricoles camarguais ont été évaluées, via la formalisation de nombreuses données et connaissances. Deux outils de modélisation ont été utilisés : un modèle multi-agent a permis la mise en place de séances de simulation interactives avec des agriculteurs, et un modèle bioéconomique a été développé et utilisé avec des acteurs locaux tels que le syndicat des riziculteurs et le parc naturel régional. Les scénarios portant sur la réforme de la PAC ont confirmé la dépendance des exploitations rizicoles aux subventions. Des agriculteurs ont testé différentes stratégies d'adaptation de leurs exploitations à la suppression de l'aide couplée à la production rizicole. Ces stratégies, souvent basées sur la diversification des activités ou sur la conversion à l'agriculture biologique, ne permettaient pas de compenser les pertes économiques liées à la disparition de l'aide couplée. A l'échelle du territoire, ces stratégies réduiraient fortement la surface cultivée en riz, avec des impacts importants sur d'autres activités en lien avec la production agricole. Cependant ces stratégies vont dans le sens des objectifs gouvernementaux de réduction des impacts de l'agriculture sur l'environnement. Des scénarios portant spécifiquement sur ces objectifs ont permis d'identifier des marges de manoeuvre importantes au niveau des exploitations céréalières camarguaises. Cette thèse propose un cadre pour la mise en oeuvre de démarches d'évaluation des systèmes agricoles dans un territoire, qui associe les agriculteurs et les acteurs locaux à différentes étapes, depuis leur engagement pour le choix des scénarios, l'acquisition et l'analyse des données, la construction des outils de simulation et l'évaluation de scénarios. La combinaison de différents outils de modélisation pour la réalisation de réflexions collectives, pourrait contribuer à la mise en place d'actions pour un développement durable de l'agriculture.
379

Quelques défis posés par l'utilisation de protocoles de Gossip dans l'Internet

Pace, Alessio 04 October 2011 (has links) (PDF)
Les systèmes pair-à-pair (P2P) sont aujourd'hui très populaires. Leur utilisation va de la messagerie instantanée au partage de fichiers, en passant par la sauvegarde et le stockage distribué ou encore le streaming video. Parmi les protocoles P2P, les protocoles basés sur le "gossip" sont une famille de protocoles qui a fait l'objet de nombreux travaux de recherche durant la dernière décennie. Les raisons de l'engouement pour les protocoles basés sur le "gossip" sont qu'ils sont considérés robustes, faciles à mettre en oeuvre et qu'ils ont des propriétés de passage à l'échelle intéressantes. Ce sont donc des candidats intéressants dès lors qu'il s'agit de réaliser des systèmes distribués dynamiques à large échelle. Cette thèse considère deux problématiques rencontrées lorsque l'on déploie des protocoles basé sur le "gossip" dans un environnement réel comme l'Internet. La première problématique est la prise en compte des pare-feux (NAT) dans le cadre des protocoles d'échantillonnage basés sur le "gossip". Ces protocoles font l'hypothèse que, a tout moment, chaque noeud est capable de communiquer avec n'importe quel noeud du réseau. Cette hypothèse est fausse dès lors que certains noeuds utilisent des NAT. Nous présentons Nylon, un protocole d'échantillonnage qui fonctionne malgré la présence de NAT. Nylon introduit un faible surcoût pour gérer les NAT et partage équitablement ce surcoût entre les noeuds possédant un NAT et les autres noeuds. La deuxième problématique que nous étudions est la possibilité de limiter la dissémination de messages de type "spam" dans les protocoles de dissémination basés sur le "gossip". Ces protocoles sont en effet des vecteurs idéaux pour diffuser les messages de type "spam" du fait qu'il n'y a pas d'autorité de contrôle permettant de filtrer les messages basés sur leur contenu. Nous proposons FireSpam, un protocole de dissémination basé sur le "gossip" qui permet de limiter la diffusion des messages de type "spam". FireSpam fonctionne par filtrage décentralisé (chaque noeud participe au filtrage). Par ailleurs, il fonctionne malgré la présence d'une fraction de noeuds malicieux (aussi appelés "Byzantins") et malgré la présence de noeuds dits "rationnels" (aussi appelés "égoïstes"). Ces derniers sont prêts à dévier du protocole s'ils ont un intérêt à le faire.
380

Etude de l'amorçage en fatigue plastique d'un acier inoxydable austénitique

Mu, Pengfei 29 March 2011 (has links) (PDF)
Bien que l'amorçage de fissure joue un rôle important en fatigue, ses mécanismes ne sont pas encore pleinement compris. Des critères d'amorçage basés sur des mécanismes physiques de déformation plastique ont été proposés mais ne sont pas faciles à utiliser et à valider, car ils nécessitent des variables locales à l'échelle du grain. L'étude présente vise à établir un critère d'amorçage en fatigue oligocyclique, utilisable sous chargement d'amplitude variable.Le comportement mécanique de l'acier inoxydable AISI 316L étudié a été caractérisé en fatigue oligocyclique. Il a été modélisé par un schéma autocohérent utilisant une loi de plasticité cristalline basée sur l'évolution des densités de dislocations. L'endommagement de surface a été suivi pendant un essai de fatigue à l'aide d'un dispositif de microscopie optique in situ. Les fissures présentes après 2000 cycles ont été analysées et leurs caractéristiques cristallographiques calculées.Comme les grains de surface montrent une déformation plus importante à cause d'un moindre confinement par les grains voisins, il est nécessaire de définir une loi de localisation spécifique aux grains de surface. La forme proposée fait intervenir une variable d'accommodation intergranulaire, sur le modèle de la loi de localisation de Cailletaud-Pilvin. Elle a été identifiée à partir de simulations par éléments finis. L'état des contraintes et des déformations dans les grains de surface a alors été simulé. Des indicateurs d'amorçage potentiels ont ensuite été comparés sur une même base expérimentale. Deux indicateurs pertinents de l'endommagement en fatigue ont pu être obtenus.

Page generated in 0.0483 seconds