• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 47
  • 1
  • Tagged with
  • 101
  • 101
  • 55
  • 53
  • 23
  • 23
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 11
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Étude et conception de mécanismes pour applications multimédias sur réseaux IP filaires et sans fil

Turletti, Thierry 13 January 2006 (has links) (PDF)
Fin 2004, un quart des foyers Européens étaient connectés à l'Internet haut débit. Avec le faible coût des machines toujours plus puissantes, de nombreuses applications multimédias ont pu être élaborées pour satisfaire la demande croissante du grand public. Le besoin d'adaptation des protocoles de communication sous-jacents est essentiel pour ce type d'applications. Les protocoles doivent pouvoir passer à l'échelle et s'adapter aux caractéristiques hétérogènes de ces nouvelles applications. Parallèlement, les transmissions sans fil ont connu un essor sans égal, permettant un accès à l'Internet de n'importe quel endroit. La multiplicité des technologies d'accès (GPRS, UMTS, WIFI, WiMAX, Bluetooth, etc.) et la grande variabilité des caractéristiques des canaux de transmission sans fil ont encore accru ce besoin d'adaptation. Dans ce document d'habilitation, je présente quatre contributions qui mettent en relief le besoin d'adaptation des protocoles de communication. La première concerne un protocole de communication robuste au facteur d'échelle élaboré pour des applications d'environnements virtuels qui mettent en jeu un grand nombre de participants. La seconde décrit un algorithme pour contrôler la transmission de vidéo hiérarchique vers un ensemble hétérogène de récepteurs sur Internet. Les deux contributions suivantes portent sur la transmission<br />sans fil. Je décris un mécanisme de différenciation de services efficace pour transmettre des flots multimédias à débit variable dans les réseaux IEEE 802.11e, ainsi qu'un mécanisme d'adaptation intercouches pour la transmission multimédia dans les réseaux WIFI.
42

Codèle : Une Approche de Composition de Modèles pour la Construction de Systèmes à Grande Échelle

Nguyen, Thi Thanh Tam 22 December 2008 (has links) (PDF)
Depuis "toujours", en Génie Logiciel comme dans toutes les ingénieries, afin réduire la complexité et pour améliorer la réutilisation, le produit à construire est divisé en parties construites indépendamment et ensuite assemblées. L'approche récente de l'Ingénierie Dirigée par les Modèles (IDM, ou MDE pour Model-Driven Engineering), fait de même, en proposant "simplement" que les parties à construire et à assembler soient des modèles et non pas des programmes. C'est ainsi que le problème de la composition de modèles est devenu un thème important de l'IDM, et le sujet de cette thèse. En effet, un système logiciel réel est bien trop complexe pour pouvoir être décrit par un seul modèle. De nombreux modèles devront être créés pour le spécifier, soit à divers niveaux d'abstraction, soit selon divers points de vue, soit encore selon des domaines fonctionnels differents et complémentaires. Dans ce travail, nous partons de l'hypothèse que de tels domaines métiers existent. Un domaine est un champ d'expertise avec 1) les savoir-faire et les connaissances capturés et formalisés sous la forme d'un langage de modélisation dédié au domaine (un Domain-Specific Modeling Language (DSML)), et 2) des outils et des environnements supportant le développement d'applications dans ce domaine. Une application, dans un domaine, est décrite par un modèle (conforme au métamodèle du domaine). Dans ce travail, nous faisons aussi l'hypothèse que ces domaines sont exécutables ; les modèles du domaine sont exécutés par une machine virtuelle du domaine. En IDM, comme dans les autres approches du Génie Logiciel, la réutilisation impose que le processus d'assemblage des parties puisse se faire sans avoir à modifier celles-ci, ni bien sur l'environnement qui les a produit ou qui les exécute. Appliqué à notre contexte, cela signifie qu'il faut être capable de composer des modèles sans les modifier et sans modifier ni l'éditeur ni la machine virtuelle du domaine dont ils sont issus. C'est le problème que nous abordons dans notre travail. Nous montrons que pour atteindre cet objectif, il faut d'abord composer les domaines c'est à dire composer leurs métamodèles et leurs machines virtuelles, puis les modèles. Nous montrons dans ce travail comment ces compositions peuvent être réalisées sans modifier les éléments compos és, en utilisant des relations dites horizontales entre les métamodèles, et des liens entre les modèles. Cette approche est validée d'abord par la réalisation d'un certain nombre de domaines composites, et par de nombreuses compositions de modèles opérationnelles. Une partie importante du travail a consisté à définir Codèle, un langage de composition de modèles et de métamodèles, et à réaliser l'environnement d'assistance correspondant. Codèle assiste les ingénieurs pour composer de façon systématique les domaines, et rend automatique ou semi-automatique la composition de tous modèles provenant de ces domaines. Nous présentons l'outil Codèle et nous évaluons son usage dans divers projets.
43

Contribution à l'étude de l'épitaxie par jets moléculaires à grande échelle de semi-conducteurs phosphorés

Dhellemmes, Sébastien 04 July 2006 (has links) (PDF)
La montée en fréquence des composants renforce l'intérêt pour les semi-conducteurs phosphorés. Le développement des cellules à source solide de phosphore avec vanne et craqueur permet d'envisager des perspectives industrielles pour l'Epitaxie par Jets Moléculaires (EJM), face à la concurrence du dépôt chimique en phase vapeur. C'est l'objectif du laboratoire commun P-Taxy entre Riber et l'IEMN, au sein duquel s'est déroulée cette thèse.<br />Plusieurs aspects de l'EJM de composés phosphorés ont été étudiés dans un bâti de grand volume. Les interfaces phosphures sur arséniures ont été caractérisées au moyen d'une structure HEMT sensible à la qualité de l'interface. Les propriétés électriques de ces structures sont comparables à celles mesurées sur des couches élaborées dans un bâti d'EJM de recherche. L'effet mémoire du bâti est faible, et des interfaces de bonne qualité peuvent être obtenues pour des arrêts de croissance courts voire nuls. Le fort dopage « p » de l'InGaAs, point important de la réalisation des transistors bipolaires à hétérojonction, a été réalisé au moyen d'une source de CBr4. La diffusion des dopants est faible et la jonction p-n obtenue est proche de l'idéalité.<br />Les flux de cellules d'EJM ont été modélisés par la méthode de Monte Carlo. Les cellules coniques permettent d'obtenir une bonne uniformité avec des variations inférieures à +/- 1% sur l'ensemble du plateau porte-substrats mais souffrent d'une chute rapide du flux lorsque le remplissage diminue. Les cellules cylindriques munies d'un insert permettent d'atteindre une bonne stabilité du flux en intensité mais le flux devient plus directif à mesure que le niveau baisse.
44

Réseaux causaux probabilistes à grande échelle : un nouveau formalisme pour la modélisation du traitement de l'information cérébrale

Labatut, Vincent 18 December 2003 (has links) (PDF)
La compréhension du fonctionnement cérébral passe par l'étude des relations entre les structures cérébrales et les fonctions cognitives qu'elles implémentent. Les études en activation, qui permettent d'obtenir, grâce aux techniques de neuroimagerie fonctionnelle, des données sur l'activité cérébrale pendant l'accomplissement d'une tâche cognitive, visent à étudier ces liens. Ces études, ainsi que de nombreux travaux chez l'animal, suggèrent que le support neurologique des fonctions cognitives est constitué de réseaux à grande échelle d'aires corticales et de régions sous-corticales interconnectées. Cependant, la mise en correspondance simple entre réseaux activés et tâche accomplie est insuffisante pour comprendre comment l'activation découle du traitement de l'information par le cerveau. De plus, le traitement cérébral est très complexe, et les mesures fournies par la neuroimagerie sont incomplètes, indirectes, et de natures différentes, ce qui complique grandement l'interprétation des données obtenues. Un outil de modélisation explicite des mécanismes de traitement et de propagation de l'information cérébrale dans les réseaux à grande échelle est nécessaire pour palier ces défauts et permettre l'interprétation des mesures de l'activité cérébrale en termes de traitement de l'information. Nous proposons ici un formalisme original répondant à ces objectifs et aux contraintes imposées par le système à modéliser, le cerveau. Il est basé sur une approche graphique causale et probabiliste, les réseaux bayésiens dynamiques, et sur une représentation duale de l'information. Nous considérons le cerveau comme un ensemble de régions fonctionnelles anatomiquement interconnectées, chaque région étant un centre de traitement de l'information qui peut être modélisé par un noeud du réseau bayésien. L'information manipulée dans le formalisme au niveau d'un noeud est l'abstraction du signal généré par l'activité de la population neuronale correspondante. Ceci nous conduit à représenter l'information cérébrale sous la forme d'un couple numérique/symbolique, permettant de tenir compte respectivement du niveau d'activation et de la configuration des neurones activés. Ce travail se situe dans le prolongement d'un projet visant à développer une approche causale originale pour la modélisation du traitement de l'information dans des réseaux cérébraux à grande échelle et l'interprétation des données de neuroimagerie. L'aspect causal permet d'exprimer explicitement des hypothèses sur le fonctionnement cérébral. Notre contribution est double. Au niveau de l'intelligence artificielle, l'utilisation de variables aléatoires labellisées dans des réseaux bayésiens dynamiques nous permet de définir des mécanismes d'apprentissage non-supervisés originaux. Sur le plan des neurosciences computationnelles, nous proposons un nouveau formalisme causal, plus adapté à la représentation du fonctionnement cérébral au niveau des réseaux d'aires que les réseaux de neurones formels, et présentant plus de plausibilité biologique que les autres approches causales, en particulier les réseaux causaux qualitatifs.
45

Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
46

Étude de la Distribution, sur Système à Grande Échelle, de Calcul Numérique Traitant des Matrices Creuses Compressées

Hamdi-Larbi, Olfa 27 March 2010 (has links) (PDF)
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre coté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i.e. la résolution de systèmes linéaires et le calcul d'éléments (valeurs/vecteurs) propres de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de résolution de systèmes linéaires et de calcul d'éléments propres et ce, dans le cas creux. Le produit matricevecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, (i) le prétraitement, (ii) le traitement et (iii) le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées (se ramenant en fait aux lignes de la matrice creuse) sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente et ce, afin d'en tirer des conclusions adéquates.
47

Test et Validation des Systémes Pair-à-pair

Cunha De Almeida, Eduardo 25 February 2009 (has links) (PDF)
Le pair-à-pair (P2P) offre de bonnes solutions pour de nombreuses applications distribuées, comme le partage de grandes quantités de données et/ou le support de collaboration dans les réseaux sociaux. Il apparaît donc comme un puissant paradigme pour développer des applications distribuées évolutives, comme le montre le nombre croissant de nouveaux projets basés sur cette technologie. Construire des applications P2P fiables est difficile, car elles doivent être déployées sur un grand nombre de noeuds, qui peuvent être autonomes, refuser de répondre à certaines demandes, et même quitter le système de manière inattendue. Cette volatilité des noeuds est un comportement commun dans les systèmes P2P et peut être interprétée comme une faute lors des tests. Dans cette thèse, nous proposons un cadre et une méthodologie pour tester et valider des applications P2P. Ce cadre s'appuie sur le contrôle individuel des noeuds, permettant de contrôler précisément la volatilité des noeuds au cours de leur exécution. Nous proposons également trois différentes approches de contrôle d'exécution de scénarios de test dans les systèmes distribués. La première approche étend le coordonnateur centralisé classique pour gérer la volatilité des pairs. Les deux autres approches permettent d'éviter le coordinateur central afin de faire passer à l'échelle l'exécution des cas de tests. Nous avons validé le cadre et la méthodologie à travers la mise en oeuvre et l'expérimentation sur des applications P2P open-source bien connues (FreePastry et OpenChord). Les expérimentations ont permis de tester le comportement des systèmes sur différentes conditions de volatilité, et de détecter des problèmes d'implémentation complexes.
48

Transfert radiatif dans les nuages de couche limite hétérogènes

Chosson, Frédérick 27 February 2006 (has links) (PDF)
L'hétérogénéité des nuages de couche limite est la somme de la variabilité 3D de l'eau nuageuse et de la variabilité microphysique décrivant les distributions dimensionnelles locales des gouttelettes. L'impact radiatif de ces variabilités est étudié d'une part sur le calcul de l'albédo d'une maille de modèle de grande échelle (GCM), et d'autre part sur la restitution des paramètres nuageux par satellite. La méthode employée utilise conjointement des simulations LES, 2 schémas extrêmes d'entraînement/mélange et un modèle de transfert radiatif 3D. Les résultats sont contraints par comparaison à des mesures in-situ et de télédétection. Il est montré que la variabilité microphysique est la source principale d'incertitude tant pour le calcul de l'albédo dans les GCM que pour la restitution des paramètres nuageux microphysiques. Elle peut conduire à une surestimation importante de l'effet indirect des aérosols dans les GCM et une sous-estimation importante de sa mesure par télédétection.
49

Etude expérimentale de transport turbulent au bord d'un plasma de tokamak

Fedorczak, Nicolas 24 September 2010 (has links) (PDF)
Ce manuscrit traite de l'étude expérimentale du transport de particules dans la région de bord du tokamak Tore Supra. La première partie du manuscrit introduit les motivations énergetiques, le principe du confinement magnétique ainsi que les éléments de physiques essentiels à la description de la dynamique du plasma à l'interaction avec la paroi du tokamak. A partir des données de sondes de Langmuirs et d'imagerie rapide, nous demontrons que le transport de particules est dominé par la convection de filaments plasmas, structures alongées le long du champ magnétique. Ces filaments presentent un nombre d'onde parallèle fini, responsable de la forte localisation du flux de particules coté faible champ du tokamak. Il en resulte l'apparition de forts écoulements parallèles le long des lignes de champs, ainsi qu'une geométrie complexe de ces filaments contrainte par le cisaillement magnétique.
50

Apprentissage de Modèles pour la Classification et la Recherche d'Images

Mensink, Thomas 26 October 2012 (has links) (PDF)
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art.

Page generated in 0.0687 seconds