• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 19
  • 4
  • 1
  • Tagged with
  • 98
  • 21
  • 17
  • 17
  • 16
  • 13
  • 11
  • 10
  • 10
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Phronesis, a diagnosis and recovery tool for system administrators / Phronesis, un outil de diagnostic et de résolution pour les administrateurs systèmes

Haen, Christophe 24 October 2013 (has links)
Le système online de l'expérience LHCb repose sur une large infrastructure informatique hétérogène, composée de milliers de serveurs sur lesquels de nombreuses applications différentes sont exécutées. Certaines applications sont critiques (prise de données, contrôle du détecteur), d'autres secondaires (serveurs web). Administrer un tel système et s'assurer de son bon fonctionnement représente une lourde charge de travail pour une petite équipe d'experts. Des recherches ont été menées afin d'automatiser certaines tâches d'administration système. En 2001, IBM définit les « self-objectives » sensés conduire à l' «autonomic computing» (informatique autonome). Dans ce contexte, nous présentons un framework basé sur l'intelligence artificielle et l'apprentissage par renforcement pour surveiller et diagnostiquer de manière non intrusive les systèmes et logiciels basés sur Linux. De plus, notre approche d’expérience partagée ainsi que notre architecture suivant le paradigme Objet permettent d'augmenter considérablement la vitesse d'apprentissage et de corréler les problèmes. / The LHCb online system relies on a large and heterogeneous IT infrastructure made from thousands of servers on which many different applications are running. They run a great variety of tasks : critical ones such as data taking and secondary ones like web servers. The administration of such a system and making sure it is working properly represents a very important workload for the small expert-operator team. Research has been performed to try to automatize (some) system administration tasks, starting in 2001 when IBM defined the so-called “self objectives” supposed to lead to “autonomic computing”. In this context, we present a framework that makes use of artificial intelligence and machine learning to monitor and diagnose at a low level and in a non intrusive way Linux-based systems and their interaction with software. Moreover, the shared experience approach we use, coupled with an "object oriented paradigm" architecture increases a lot our learning speed, and highlight relations between problems.
42

Simulation de réactions chimiques en catalyse hétérogène : l'hydrogène sur la surface (111) du palladium / Simulation of chemical reactions in heterogeneous catalysis : Hydrogen on Pd(111) surface

Sun, Yuemei 11 July 2014 (has links)
Dans ce travail, nous avons étudié l’adsorption dissociative de l’hydrogène sur Pd(111) ainsi que la diffusion d’un atome de l’hydrogène sur ce même surface. A l’aide de la théorie de la fonctionnelle de la densité, nous avons mené une étude systématique de l’effet du recouvrement en surface sur l’énergétique de la dissociation de H2 sur une surface de Pd(111) couverte par des atomes de l’hydrogène. Un résultat surprenant que nous avons trouvé est que les atomes adsorbés ont non seulement un effet de poison mais peuvent aussi promouvoir la dissociation de H2 s’ils sont adsorbés sur des sites loin de la molécule d’hydrogène qui dissocie. En ce qui concerne la diffusion d’un atome d’ hydrogène sur Pd(111), nous avons déterminé le coefficient de diffusion par des simulations de dynamique moléculaire en utilisant la formule d’Einstein à différente température de la surface, Ts=500K, 300K and 250K. Une méthode de la dynamique moléculaire accélérée a été développée afin d’étudier la diffusion à bases températures. Dans notre approche, l’accélération se fait moyennant l’augmentation de l’énergie cinétique de l’atome qui diffuse suivant une distribution Maxwell-Boltzmann qui correspond à une température plus élevée et la correction de l’échelle de temps d’une façon consistante. Pour tester la validité de notre approche, nous avons effectué des simulations pour la diffusion d’un atome d’hydrogène sur Pd(111) à Ts=300K and Ts=100K. Les résultats obtenus par la méthode accélérée est en bon accord avec ceux de la simulation standard. Par la méthode accélérée, l’échelle de temps peut être étendu à l’ordre de micro-secondes. / In this thesis, we studied dissociative adsorption of hydrogen on Pd(111) with particular attention paid to the surface coverage effect and the diffusion of a hydrogen adatom on Pd(111). With the help of DFT calculations, we carried out a systematic investigation of the effect of H-adatoms on the dissociation energetics of H2 on H-covered Pd(111) surfaces at various coverages. A quite surprising finding is that the H-adatoms do not only have a poisoning effect but can also promote H2 dissociation when they are adsorbed on sites which are sufficiently far from the dissociating H2 molecule. The macroscopic diffusion coefficient of an H-adatom on Pd(111) is determined from molecular dynamics simulations with the help of Einstein formula for different surface temperatures, i.e., Ts=500K, 300K and 250K. An accelerated molecular dynamics method was developed in order to study the diffusion at low surface temperatures. In our approach, the acceleration is achieved by increasing the kinetic energy of the diffusing atom according to the Maxwell-Boltzmann distribution at a higher temperature and correcting the time scale in a consistent way. For testing the validity of our method, we performed simulations for the diffusion of H adatom on Pd(111) surface at T=300K and T=100K. The diffusion coefficient obtained from the accelerated MD method is in agreement with that obtained from the direct MD and TST methods. And the physical time scale can be extended to the order of microseconds.
43

All-Optical Multicast Routing under Optical Constraints / Routage multicast tout-optique sous contraintes optiques

Le, Dinh Danh 27 March 2015 (has links)
Au cours de la dernière décennie, le trafic dans les réseaux a connu une croissance explosive en double environ tous les trente trois mois. Les sources à l'origine de cette croissance proviennent de nombreuses applications à grande vitesse qui impliquent la transmission de données dans des groupes de multicast. Pour réaliser la multicast optique, les routeurs optiques peuvent avoir des répartiteurs de lumière spéciaux pour diviser des signaux lumineux et des convertisseurs de longueur d'onde pour modifier les longueurs d'onde où c'est nécessaire. Cependant, la division réduit l'énergie du signal qui nécessite alors une amplification ou une régénération qui nécessitent du matériel coûteux. Les convertisseurs de longueurs d'onde aussi ne sont pas suffisamment matures pour être largement déployés dans les technologies optiques actuelles. Par conséquent, dans les réseaux tout-optique, les unités de transformation des routeurs sont souvent hétérogènes et les algorithmes de routage doivent en tenir compte tout en parvenant à des solutions de compromis coût-performances qui satisfassent les exigences de bande passante et les contraintes optiques.Dans cette thèse, nous étudions les problème de routage multicast tout-optique (AOMR) dans les réseaux tout-optique hétérogènes. L'hétérogénéité provient principalement de l'absence / présence de séparateurs de lumière et de convertisseurs de longueur d'onde et de la répartition inégale des longueurs d'onde dans les liens du réseau. En général, les problèmes de AOMR sont NP-difficiles. L'objectif de la thèse est d'analyser et de formuler les problèmes sous différentes contraintes optiques, pour rechercher des solutions optimales ou proposer des heuristiques efficaces. Les deux contextes possibles, la demande unique ou multiple de multicast, sont examinés. Toutes les propositions présentées dans la thèse sont validées par des simulations approfondies. Les principales contributions peuvent être résumées comme il suit.1) Nous identifions les structures des routes optimales pour les problèmes de l'AOMR dans les réseaux WDM hétérogènes. Comme indiqué dans la thèse, les solutions optimales ne sont plus basées sur des arbres de lumière classiques, mais sur une structure arborescente plus générale appelée hiérarchie. Certaines formes de hiérarchie pour la multicast WDM sont des parcours optiques, des hiérarchies optiques, des hiérarchies-araignée optiques ou encore des ensembles de ces routes optiques. Les algorithmes exacts et les heuristiques proposés dans la thèse sont principalement basés sur les hiérarchies.2) Dans le cas du problème de multicast avec une seule demande dans des réseaux partiellement équipés de diviseurs de lumière, nous proposons une heuristique efficace dont les résultats font le compromis entre la consommation de longueur d'onde, le coût total, et le délai de bout-en-bout.3) Dans le même cas mais dans des réseaux non équipés de diviseurs de lumière, nous prouvons la NP-difficulté, exprimons les problèmes au moyen d'un programme linéaire (ILP) pour trouver les solutions exactes et proposons plusieurs heuristiques pour calculer de bonnes solutions.4) Pour le cas de demandes multicast multiples, nous nous concentrons sur les modèles de trafic statiques dans des réseaux partiellement équipés de diviseurs mais sans convertisseurs de longueur d'onde. Tout d'abord nous proposons une formulation ILP sur la base de hiérarchies optiques afin de rechercher la solution optimale. Ensuite, utilisant un modèle de graphe en couches, nous développons plusieurs heuristiques adaptatives pour calculer des hiérarchies optiques de solutions approximatives. Ces algorithmes adaptatifs surpassent les techniques de routage existants pour minimiser la probabilité de blocage.Dans l'ensemble, la thèse souligne que les solutions optimales pour les problèmes de l'AOMR considérés correspondent à des hiérarchies, que ce soit pour une seule demande ou des demandes multiples. / Over the past decade, network traffic levels experienced an explosive growth at about double amount in approximately every thirty months. The sources accounting for this growth come from numerous high-speed applications (e.g., video-on-demand, high-definition television) which involve the data transmission in multicast groups. To realize optical multicasting, optical routers should have light splitters to split light signals and wavelength converters to change the wavelengths wherever needed. However, the splitting reduces the energy of the output signal which in turn requires the costly power amplification or regeneration. Wavelength converters are also immature to be deployed widely in current optical technologies. Consequently, in all-optical networks, routers are often heterogeneous in their processing units, which challenges the routing. Therefore, it is crucial to design efficient multicast routing strategies at the backbone optical networks, in order to achieve cost-performance tradeoff solutions while satisfying the ever-increasing bandwidth demands and optical constraints.In this thesis, we investigate the all-optical multicast routing (AOMR) problems in heterogeneous optical networks. The heterogeneity mainly comes from the absence/presence of light splitters and wavelength converters and the uneven distribution of wavelengths in the network links. In general, AOMR problems are often NP-hard. The objective of the thesis is to analyze and formulate the problems, to search for the optimal solutions, and to propose efficient heuristics to solve the problems under different optical constraints. Both possible contexts, i.e., single-multicast request and multiple-multicast requests, are examined. All the reported results in the thesis are supported by extensive and careful simulations. The major contributions can be summarized as follows.1) We identify the optimal route structures for AOMR problems under heterogeneous mesh WDM networks. As shown in the thesis, the optimal solutions are no longer based on conventional light-trees, but a more general tree-like structure called hierarchy. Some forms of hierarchy realized for WDM multicasting are light-trails, light-hierarchies, light-spider hierarchies and a set of these light-structures. The exact and heuristic algorithms proposed in the thesis are mainly based on hierarchy. 2) For single-multicast with sparse-splitting case, we propose an efficient heuristic algorithm to produce a good tradeoff solution among wavelength consumption, channel total cost and end-to-end delay.3) For single-multicast with non-splitting case, we prove the NP-hardness, identify the optimal solution as a set of light-spider hierarchies, formulate the problems by means of Integer Linear Program (ILP) formulations to find the exact solution, and propose several cost-effective heuristic algorithms to compute the approximate solutions. 4) For the case with multiple-multicast requests, we focus on static traffic patterns under sparse-splitting without wavelength conversion case. First, an ILP formulation based on light-hierarchies is proposed to search for the optimal solution. By applying the layered graph model, we then develop several adaptive heuristic algorithms to compute light-hierarchies for approximate solutions. These adaptive algorithms outperform the existing fixed routing ones in minimizing the blocking probability. Overall, the thesis points out that the optimal solutions for heterogeneously constrained AOMR problems correspond to hierarchies, regardless of request multiplicity consideration.
44

Détection de Changement en Imagerie Radar

Hochard, Guillaume 10 March 2011 (has links) (PDF)
L'exploitation en série temporelle d'un large volume d'images radar se heurte au problème de la sélection de couples d'images pertinents, permettant une estimation de bonne qualité du signal de déformation. La qualité d'un couple interférométrique et des mesures différentielles associées (recalage, phase interférométrique) peut être déterminée a priori par le modèle de cohérence de [Zebker et Villasenor, 1992]. En pratique, la confrontation de ce modèle à des observations réelles est difficile par variabilité temporelle des scènes. Dans un premier temps, nous qualifions le modèle de cohérence sur 82 images ERS-1/2 acquises entre 1992 et 2002. La confrontation de ce modèle à des mesures expérimentales sur une zone cohérente temporellement stable (barrage de Serre-Ponçon, Hautes-Alpes) met en évidence des pertes de cohérence dues à un recalage imprécis, demandant une méthode d'estimation de la cohérence adaptée. Dans un second temps, nous proposons une stratégie de sélection de couples adaptée au recalage global de cette série temporelle afin d'améliorer l'estimation de la cohérence. Nous exprimons la distance entre images à l'aide d'une conorme triangulaire, utilisée pour sélectionner le meilleur jeu de couples via un arbre de recouvrement minimal, tel que l'ont proposé [Refice et al., 2006]. Nous caractérisons les limites de cette approche et proposons des solutions nouvelles basées sur deux méthodes originales de sélection de couples intégrant de la redondance. L'apport de ces méthodes est démontré par simulation et sur des données ERS, en mettant en évidence le compromis existant entre le nombre de couples traités et la qualité du résultat global obtenu.
45

Estimateurs d'erreur et ramaillage adaptatif : application à la simulation 3D des procédés de mise en forme des matériaux

Boussetta, Ramzy 18 March 2005 (has links) (PDF)
La simulation numérique par la méthode des éléments finis de tout problème physique s'appuie sur le maillage associé à la géométrie du domaine de calcul. Dans le cadre des problèmes de la mise en forme des matériaux, le maillage qui suit les grandes déformations de la pièce dégénère rapidement. La simulation de tels problèmes nécessite donc la génération de manière automatique de nombreux maillages dont la qualité conditionne la précision des calculs. L'objectif de cette étude est le développement d'une procédure d'adaptation de maillage entièrement automatique permettant le contrôle de l'erreur de discrétisation spatiale et le pilotage de l'étape de remaillage au cours des calculs. Une première partie de ce travail est consacrée à l'étude et l'évaluation numérique des estimateurs d'erreur de type Zienkiewicz-Zhu. Initialement développés pour des problèmes 2D d'élasticité, ces estimateurs sont étendus aux problèmes 3D non linéaires avec des matériaux incompressibles. L'objectif de cette première étude est le développement d'un estimateur fiable et efficace pour le contrôle d'erreur dans le cadre des problèmes de la mise en forme des matériaux. Une fois l'erreur estimée, il est possible de contrôler la qualité de la solution en calculant la taille optimale de chaque élément du maillage. Ceci revient à construire un maillage optimal, soit au sens d'une précision imposée ou au sens de la taille maximale du problème étudié. Il s'agit ainsi, dans cette deuxième partie, de développer une stratégie d'adaptation de maillage, pilotée par l'estimation d'erreur, qui soit efficace et robuste pour la simulation numérique des problèmes industriels de la mise en forme.
46

Calcul direct du rayonnement acoustique généré par une cavité cylindrique sous une aile d'avion

Jérèmie, Chicheportiche 12 October 2011 (has links) (PDF)
Les sources de bruit d'origine aérodynamique sont multiples pour un avion. A l'atterrissage, la source prépondérante est le bruit dû à l'écoulement autour de la voilure, du fuselage et du train d'atterrissage. Sous l'impulsion d'Airbus, le projet AEROCAV (Aéroacoustique des cavités) s'intéresse au bruit généré par des cavités cylindriques qui se situent sous les ailes des avions pour évacuer un éventuel surplus de carburant. Elles émettent un rayonnement acoustique intense et très marqué en fréquence. Afin d'étudier les mécanismes de génération sonore, des simulations numériques du rayonnement acoustique dû à l'écoulement affleurant une cavité cylindrique sont réalisées par calcul direct du bruit. Ce type de simulation requiert des algorithmes numériques de haute précision afin de résoudre la turbulence fine échelle et le rayonnement acoustique associé de faible amplitude. Afin de gérer la géométrie complexe, une technique de recouvrement de maillages a été développée. Le point principal est le choix d'une interpolation compatible avec ces schémas de haute précision pour la communication entre les différentes grilles. Un travail spécifique est réalisé sur les méthodes de génération d'une condition d'entrée turbulente afin de reproduire de façon réaliste les conditions de la soufflerie. Deux Simulations des Grandes Échelles sont réalisées pour une cavité de diamètre et profondeur de 100 mm et une vitesse amont de 70 m/s, l'un avec la nouvelle condition d'entrée turbulente et l'autre sans. Ils permettent de reproduire les principales caractéristiques de l'écoulement et du champ acoustique mesurées durant la campagne expérimentale du projet AEROCAV.
47

Tolérance aux fautes multi-niveau dans les réseaux sur puce

Rusu, C. 10 September 2010 (has links) (PDF)
Avec la diminution continue des caractéristiques technologiques et la complexité croissante des systèmes sur puce, les réseaux sur puce se sont imposés comme la solution la plus prometteuse pour assurer la communication entre les composants intégrés. Toutefois, différents facteurs (variation du processus, électromigration, interférences, l'environnement radiatif et des défauts permanents dans le cas de l'intégration 3D) peuvent perturber le fonctionnement logique et temporel, et conduire aux défaillances du système de communication ou d'autres entités du système. Dans cette thèse on s'intéresse aux différentes approches complémentaires pour faire face à ces problèmes, à partir des techniques au niveau de la couche de liaison de données telles que la détection d'erreur et la correction ou la retransmission, en passant par les algorithmes de routage tolérants aux fautes pour les topologies 3D et allant à la couche application avec des solutions de recouvrement par points de contrôle.
48

Système intelligent et interactif pour l'éducation basé sur le Web.

Masun, Nabhan Homsi 04 July 2010 (has links) (PDF)
L'objectif de cette thèse est de créer un nouveau système qui est capable de gérer des auto-formations intelligentes, interactives et adaptatives aux besoins, styles d'apprentissage et à l'état des connaissances de chaque apprenant. Ce système est nommé IWEBISE (Interactive and Intelligent System for Education). Il est le résultat de l'accouplement entre cinq grands domaines : l'ingénierie des connaissances, l'interaction homme-machine, la psychologie cognitive, l'intelligence artificielle et la psychopédagogie. IWEBISE est constitué de cinq parties :<br> Modèle de l'apprenant : Cette partie détaille comment le style d'apprentissage des apprenants est modélisé selon le modèle Felder-Silverman, qui dépend de nombreux paramètres : Nombre d'exemples, nombre d'exercices, le lieu des exemples avant ou après le contenu et le lieu des exercices avant ou après le contenu. Les connaissances des étudiants sont exprimées dans le système en utilisant le modèle de recouvrement (Overlay), qui les considère comme une partie du domaine de la connaissance. L' IWEBISE utilise également un modèle ouvert de l'apprenant . Celui-ci permet aux étudiants de changer par eux-mêmes leurs états de connaissances relatives à chaque concept, ce qui leur permet d'étudier à grands pas sans se sentir bloqués par leurs processus d'apprentissage. Le modèle de l'apprenant est composé de deux parties: La partie statique qui stocke les renseignements personnels de l'apprenant. La partie dynamique qui garde les interactions des apprenants avec le système. Elles sont présentées par plusieurs paramètres: nombre de réponses correctes (NCA), nombre de réponses incorrectes (NICA), temps passé à résoudre une question (TSSQ), temps consacré à la lecture ou à l'interaction avec un concept spécifique (TSR) et le nombre de tentatives pour répondre à une question (NAAQ). Une fois qu'un apprenant a passé une séance de pré-test, la partie dynamique est lancée en utilisant ces paramètres. Six méthodes sont employées pour symboliser l'état des connaissances des apprenants dans six niveaux (excellent, très bien, bien, plutôt bien, faibles et très faibles) dans le but de déterminer la meilleure pour être utilisée plus tard dans le nouveau IWEBISE. Ces méthodes sont: FBAM, ART2, Fuzzy-ART2, HMM et NN / HMM. F-mesure métrique est employé pour mesurer la performance des méthodes mentionnées. Les résultats montrent que Fuzzy-ART2 donne la meilleure qualité de catégorisation (0.281 ), qui est considérée comme un facteur très important pour s''assurer qu'une carte de concepts appropriée est affichée à l'apprenant en fonction de son état de connaissances. <br> Modèle de tuteur : Cette partie détaille la façon de modéliser les stratégies pédagogiques utilisées par les enseignants pendant la présentation du contenu des cours aux étudiants. Elles sont modélisées par une table composée de neuf champs qui permettent de stocker les couleurs utilisées pour présenter l'état des connaissances des apprenants dans le plan du parcours et la possibilité de montrer ou de cacher un concept d'apprentissage. Le modèle de tuteur se concentre également sur un algorithme de prédiction pour prévoir les concepts suivants qui pourraient être visités par les apprenants. Le processus de prédiction est réalisé en suivant trois phases: Phase d'initialisation: Pour chaque apprenant un HMM (λ) est construit à base de sa précédente séquence d'accès aux concepts. Phase d'ajustement: Étant donnée une nouvelle séquence observée et un HMM (λ), l'algorithme de Baum-Welch est utilisé pour ajuster les HMM initialisés et de maximiser la nouvelle séquence observée. Phase de prédiction: l'algorithme Forward est appliqué pour déterminer la distribution de probabilité de chaque concept dans le cours. La plus haute valeur représente le concept suivant qui sera visité par l'apprenant. L'exactitude de prédiction est évaluée par deux critères, la Sensibilité et la Précision. La sensibilité est définie comme le nombre de concepts prédits correctement (vrais positifs) divisé par le nombre de concepts visités (positifs réels). La précision est le pourcentage de prédictions positives qui sont correctes. Les résultats montrent que HMM génère une plus grande précision en utilisant une séquence de concepts plus large qui varie de 20% à 99% et quand la précision est élevée, la sensibilité est élevée aussi.<br> Modèle de domaine : Le contenu des cours est organisé en un réseau de concepts pour représenter les objectifs d'apprentissage. Un objectif d'apprentissage concerne plusieurs concepts qui sont classés en trois types: des concepts principaux, des concepts pré-requis et des sous-concepts. Chaque nœud interne dans le réseau représente un concept, tandis que les nœuds externes dans le niveau le plus bas symbolisent plusieurs types d'unités d'enseignement, qui sont sous la forme de fichiers multimédia Flash interactive, images, vidéos, textes, exercices, des exemples. Trois différentes méthodes sont utilisées pour décrire le modèle de domaine : HBAM (Hirarchical Bidirectional Associative Memory), une base de données MySql, et XML, Dans la première méthode, le domaine de connaissances est conçu et modélisé en utilisant un réseau de neurones BAM hiérarchique. Le premier BAM-1 associe les objectifs d'apprentissage avec les concepts, mais le second BAM-2 est utilisé pour attribuer des unités d'enseignement à chaque concept. La couche de sortie de BAM-1 est la couche d'entrée du BAM-2, qui peut être vu comme une couche intermédiaire de toute l'architecture. Nombre de nœuds de couche d'entrée, de milieu et de sortie représentent le nombre d'objectifs d'apprentissage, les concepts et les unités d'enseignement respectivement . Dans la seconde méthode une base de données relationnelle est utilisée pour représenter le domaine de connaissance. Il est composé d'onze tableaux (les catégories principales, les sous-catégories, les sujets, les objectifs d'apprentissage, les objectifs d'apprentissage pré-requis, les concepts, les concepts pré-requis, la relation d'un sous-concepts avec un concept, le contenu et les questions pour les post-tests et pré-tests). Un Document Type Définition (DTD) du fichier est construit dans la troisième méthode pour déterminer un ensemble de règles pour définir et décrire l'organisation des connaissances dans un fichier XML. La méthode de base de données relationnelle est sélectionnée pour être utilisée au sein de notre nouveau système IWEBISE car d'une part, certains concepteurs de cours préfèrent avoir leur contenu des cours confidentiels et protégés et de l'autre part, XML n'est pas capable de traiter le contenu de cours énormes et tous les types de données tels que des images et la vidéo. <br> Le moteur d'adaptation : Il est considéré comme l'une des parties les plus importantes de IWEBISE grâce aux trois raisons suivantes: Il relie les différentes parties du système, il génère la page d'un concept selon le style d'apprentissage de chaque apprenant et il adapte la carte de concepts en fonction de l'état des connaissances de chaque apprenants aussi. <br> L'interface utilisateur représente les moyens d'interaction disponible sur le système IWEBISE. Il est classé en quatre niveaux : Administrateur: Il permet aux administrateurs de créer une catégorie de cours, sous-catégorie, gérer les utilisateurs et les processus d'abonnement. Concepteur: Il permet aux concepteurs de cours de gérer les objectifs d'apprentissage, les concepts, les sous-concepts, les contenu des concepts et les questions des tests. Elle leur permet également d'exporter leurs cours sous la norme SCORM. Tuteur: Il permet aux enseignants de gérer leurs stratégies d'enseignement et de donner des conseils appropriés aux apprenants. Apprenant: Il permet aux apprenants de compléter leur processus d'apprentissage en utilisant le pré-test, les post-tests, le questionnaire «Index des styles d'apprentissage", les glossaires, le chat et le forum. Le nouveau système IWEBISE est évalué par des concepteurs de cours et par des étudiants, dans le but d'optimiser ses performances au cours de l'enseignement et les processus d'apprentissage. Douze critères sont utilisés pour l'évaluer: la Cohérence, l'évidence, la prévisibilité, la richesse, l'exhaustivité, la motivation, la structure d'Hypertext, l'autonomie, la facilité d'utilisation, l'esthétique, la collaboration et l'interactivité.<br> L'originalité de cette thèse est basée sur : 1.L'utilisation d'une nouvelle architecture d'un réseau de neurones appelé HBAM pour modéliser le domaine des connaissances d'un cours. Ce nouveau réseau peut être utilisé dans de nombreux autres domaines tels que: la reconnaissance des formes ; 2.L 'utilisation d'un nouvel algorithme hybride qui utilise un réseau de neurones (Fuzzy-ART2) et une méthode statistique (HMM) pour la modélisation des connaissances des apprenants ; 3.L 'utilisation de nombreux algorithmes d'apprentissage tels que: FBAM, ART2, Fuzzy-ART2 et une structure hybride Fuzzy-ART2/HMM, qui sont utilisés pour classer la réflexion des apprenants et leurs raisonnements en six niveaux ; 4.L'utilisation d'un HMM pour prédire le prochain concept, basé sur l'histoire des concepts visités par un apprenant ; 5.La définition des styles d'apprentissage des apprenants à l' Institut Supérieur des Langues (Université d'Alep) par rapport à l'apprentissage d'une langue. Ceci est fait en utilisant le modèle Felder et Silverman ; 6.Le comparaison d'IWEBISE avec d'autres systèmes éducatifs. 7.Le capacité d'l'IWEBISE à l'exportation et la réalisation des cours conformément à la norme SCORM avec l'objectif de les réutiliser dans d'autres plates-formes d'enseignement telle que: Moodle ; 8.La construction et la mise en œuvre d'un nouveau système intelligent et adaptatif pour l'éducation basé sur le Web pour l'enseignement de la grammaire anglaise.
49

Procédures de base pour le calcul scientifique sur machines parallèles à mémoire distribuée

Desprez, Frédéric 06 January 1994 (has links) (PDF)
Le but de cette thèse est l'étude et l'implémentation de routines de base pour aider l'utilisateur de machines parallèles à mémoire distribuée à obtenir les meilleures performances avec un coût de développement moindre. Trois ensembles de routines sont étudiés. Le premier concerne des routines de communication sur réseau réconfigurable. La seconde bibliothèque fournit à l'utilisateur des routines portables de recouvrements calculs/communications transparents. Enfin, le dernier ensemble concerne des routines de calcul comme le produit de matrices, la factorisation LU et la transformée de Fourier bidimensionnelle. Une attention toute particulière est portée aux recouvrements calculs/communications. Enfin, une application des principes présentés tout au long de la thèse est donnée. Elle concerne la simulation d'un front de combustion
50

Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine

Parret-fréaud, Augustin 28 June 2011 (has links) (PDF)
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.

Page generated in 0.0485 seconds