• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
801

Principes et réalisation d'un environnement de prototypage virtuel de systèmes hétérogènes composables / Design of a virtual prototyping framework for composable heterogeneous systems

Ben Aoun, Cédric 12 July 2017 (has links)
Les systèmes électroniques sont de plus en plus complexes et, dans le but de rapprocher le monde numérique et le monde physique, on observe l'émergence de systèmes multidisciplinaires interagissant de plus en plus avec leur environnement proche. Leur conception nécessite la connaissance de multiples disciplines scientifiques tendant à les définir comme systèmes hétérogènes. Le développement des systèmes à venir nécessite un environnement de conception et de simulation commun permettant de gérer la multidisciplinarité de ces composants de nature variés interagissant fortement les uns avec les autres. Nous explorons la possibilité de développer et déployer un environnement de prototypage virtuel unifié pour ces systèmes. Pour surpasser les contraintes liées à leur spécification et dimensionnement, cet environnement doit pouvoir simuler un système hétérogène dans son ensemble, où chaque composant est décrit et résolu en utilisant le MoC le plus approprié. Nous proposons un prototype de simulateur, SystemC MDVP, implémenté comme une extension de SystemC qui suit une approche correcte-par-construction, repose sur une représentation hiérarchique hétérogène et des interactions basées sur des sémantiques maitre-esclave afin de modéliser les systèmes hétérogènes. Des algorithmes génériques permettent l'élaboration, la simulation et le monitoring de tels systèmes. Une méthodologie pour incorporer de nouveaux MoCs est définie puis suivie afin d'ajouter le MoC SPH, qui permet la description de réseaux fluidique, à SystemC MDVP. Nous avons modélisé un système RFID passif en utilisant plusieurs MoCs. Les résultats sont comparés avec des mesures acquises sur un vrai prototype physique. / Current and future microelectronics systems are more and more complex. In a aim to bridge the gap between the cyber world and the physical world we observe the emergence of multi-disciplinary systems that interact more and more with their close surrounding environment. The conception of such systems requires the knowledge of multiple scientific disciplines which tends to define them as heterogeneous systems. Designers of the upcoming digital-centric systems are lacking a common design and simulation environment able to manage all the multi-disciplinary aspects of its components of various nature, which closely interact with each other. We explore the possibilities of developing and deploying a unified SystemC-based design environment for virtual prototyping of heterogeneous systems. To overcome the challenges related to their specification and dimensioning this environment must be able to simulate a heterogeneous system as a whole, for which each component is described and solved using the most appropriate MoC. We propose a simulator prototype called SystemC MDVP which is implemented as an extension of SystemC. It follows a correct-by-construction approach, relies on a hierarchical heterogeneity representation and interaction mechanisms with master-slave semantics in order to model heterogeneous systems. Generic algorithms allow for the elaboration, simulation and monitoring of such systems. A methodology to incorporate new MoCs within SystemC MDVP is defined and followed to add a SPH MoC that enables the description of fluidic network. We modeled a passive RFID reading system using several MoCs. We compare the results with measures acquired on a real physical prototype.
802

"How much is 'about'?" modélisation computationnelle de l'interprétation cognitive des expressions numériques approximatives / "How much is about ?" computational modeling of the cognitive interpretation of approximate numerical expressions

Lefort, Sébastien 19 September 2017 (has links)
Nos travaux portent sur les Expressions Numériques Approximatives (ENA), définies comme des expressions linguistiques impliquant des valeurs numériques et un adverbe d'approximation, telles que "environ 100". Nous nous intéressons d’abord à l’interprétation d’ENA non contextualisées, dans ses aspects humain et computationnel. Après avoir formalisé des dimensions originales, arithmétiques et cognitive, permettant de caractériser les ENA, nous avons conduit une étude empirique pour collecter les intervalles de plages de valeurs dénotées par des ENA, qui nous a permis de valider les dimensions proposées. Nous avons ensuite proposé deux modèles d'interprétation, basés sur un même principe de compromis entre la saillance cognitive des bornes des intervalles et leur distance à la valeur de référence de l’ENA, formalisé par un front de Pareto. Le premier modèle estime l’intervalle dénoté, le second un intervalle flou représentant l’imprécision associée. Leur validation expérimentale à partir de données réelles montre qu’ils offrent de meilleures performances que les modèles existants. Nous avons également montrél’intérêt du modèle flou en l’implémentant dans le cadre des requêtes flexibles de bases de données. Nous avons ensuite montré, par une étude empirique, que le contexte et les interprétations, implicite vs explicite, ont peu d’effet sur les intervalles. Nous nous intéressons enfin à l’addition et à la multiplication d’ENA, par exemple pour évaluer la surface d’une pièce d’"environ 10" par "environ 20 mètres". Nous avons mené une étude dont les résultats indiquent que les imprécisions liées aux opérandes ne sont pas prises en compte lors des calculs. / Approximate Numerical Expressions (ANE) are imprecise linguistic expressions implying numerical values, illustrated by "about 100". We first focus on ANE interpretation, both in its human and computational aspects. After defining original arithmetical and cognitive dimensions allowing to characterize ANEs, we conducted an empirical study to collect the intervals of values denoted by ANEs. We show that the proposed dimensions are involved in ANE interpretation. In a second step, we proposed two interpretation models, based on the same principle of a compromise between the cognitive salience of the endpoints and their distance to the ANE reference value, formalized by Pareto frontiers. The first model estimates the denoted interval, the second one generates a fuzzy interval representing the associated imprecision. The experimental validation of the models, based on real data, show that they offer better performances than existing models. We also show the relevance of the fuzzy model by implementing it in the framework of flexible database queries. We then show, by the mean of an empirical study, that the semantic context has little effect on the collected intervals. Finally, we focus on the additions and products of ANE, for instance to assess the area of a room whose walls are "about 10" and "about 20 meters" long. We conducted an empirical study whose results indicate that the imprecisions associated with the operands are not taken into account during the calculations.
803

Vérifiabilité et imputabilité dans le Cloud / Verifiability and accountability in the Cloud

Azraoui, Monir 07 June 2016 (has links)
Cette thèse propose de nouveaux protocoles cryptographiques, plus efficaces que l’existant, et qui permettent aux utilisateurs du nuage informatique (le cloud) de vérifier (i) la bonne conservation des données externalisées et (ii) l'exécution correcte de calculs externalisés. Nous décrivons d'abord un protocole cryptographique qui génère des preuves de récupérabilité, qui permettent aux propriétaires de données de vérifier que le cloud stocke leurs données correctement. Nous détaillons ensuite trois schémas cryptographiques pour vérifier l’exactitude des calculs externalisés en se focalisant sur trois opérations fréquentes dans les procédures de traitement de données, à savoir l’évaluation de polynômes, la multiplication de matrices et la recherche de conjonction de mots-clés. La sécurité de nos solutions est analysée dans le cadre de la sécurité prouvable et nous démontrons également leur efficacité grâce à des prototypes. Nous présentons également A-PPL, un langage de politiques pour l’imputabilité qui permet l'expression des obligations de responsabilité et de traçabilité dans un format compréhensible par la machine. Nous espérons que nos contributions pourront encourager l'adoption du cloud par les entreprises encore réticentes à l’idée d'utiliser ce paradigme prometteur. / This thesis proposes more efficient cryptographic protocols that enable cloud users to verify (i) the correct storage of outsourced data and (ii) the correct execution of outsourced computation. We first describe a cryptographic protocol that generates proofs of retrievability, which enable data owners to verify that the cloud correctly stores their data. We then detail three cryptographic schemes for verifiable computation by focusing on three operations frequent in data processing routines, namely polynomial evaluation, matrix multiplication and conjunctive keyword search. The security of our solutions is analyzed in the provable security framework and we also demonstrate their efficiency thanks to prototypes. We also introduce A-PPL, an accountability policy language that allows the expression of accountability obligations into machine-readable format. We expect our contributions to foster cloud adoption by organizations still wary of using this promising paradigm.
804

Numerical simulations of the shock wave-boundary layer interactions / Simulations numériques de l’interaction onde de choc couche limite

Ben Hassan Saïdi, Ismaïl 04 November 2019 (has links)
Les situations dans lesquelles une onde de choc interagit avec une couche limite sont nombreuses dans les industries aéronautiques et spatiales. Sous certaines conditions (nombre de Mach élevé, grand angle de choc…), ces interactions entrainent un décollement de la couche limite. Des études antérieures ont montré que la zone de recirculation et le choc réfléchi sont tous deux soumis à un mouvement d'oscillation longitudinale à basse fréquence connu sous le nom d’instabilité de l’interaction onde de choc / couche limite (IOCCL). Ce phénomène appelé soumet les structures à des chargement oscillants à basse fréquence qui peuvent endommager les structures.L’objectif du travail de thèse est de réaliser des simulations instationnaires de l’IOCCL afin de contribuer à une meilleure compréhension de l’instabilité de l’IOCCL et des mécanismes physiques sous-jacents.Pour effectuer cette étude, une approche numérique originale est utilisée. Un schéma « One step » volume fini qui couple l’espace et le temps, repose sur une discrétisation des flux convectifs par le schéma OSMP développé jusqu’à l’ordre 7 en temps et en espace. Les flux visqueux sont discrétisés en utilisant un schéma aux différences finies centré standard. Une contrainte de préservation de la monotonie (MP) est utilisée pour la capture de choc. La validation de cette approche démontre sa capacité à calculer les écoulements turbulents et la grande efficacité de la procédure MP pour capturer les ondes de choc sans dégrader la solution pour un surcoût négligeable. Il est également montré que l’ordre le plus élevé du schéma OSMP testé représente le meilleur compromis précision / temps de calcul. De plus un ordre de discrétisation des flux visqueux supérieur à 2 semble avoir une influence négligeable sur la solution pour les nombres de Reynolds relativement élevés considérés.En simulant un cas d’IOCCL 3D avec une couche limite incidente laminaire, l’influence des structures turbulentes de la couche limite sur l’instabilité de l’IOCCL est supprimée. Dans ce cas, l’unique cause d’IOCCL suspectée est liée à la dynamique de la zone de recirculation. Les résultats montrent que seul le choc de rattachement oscille aux fréquences caractéristiques de la respiration basse fréquence du bulbe de recirculation. Le point de séparation ainsi que le choc réfléchi ont une position fixe. Cela montre que dans cette configuration, l’instabilité de l’IOCCL n’a pas été reproduite.Afin de reproduire l’instabilité de l’IOCCL, la simulation de l’interaction entre une onde de choc et une couche limite turbulente est réalisée. Une méthode de turbulence synthétique (Synthetic Eddy Method - SEM) est développée et utilisée à l’entrée du domaine de calcul pour initier une couche limite turbulente à moindre coût. L’analyse des résultats est effectuée en utilisant notamment la méthode snapshot-POD (Proper Orthogonal Decomposition). Pour cette simulation, l’instabilité de l’IOCCL a été reproduite. Les résultats suggèrent que la dynamique du bulbe de recirculation est dominée par une respiration à moyenne fréquence. Ces cycles successifs de remplissage / vidange de la zone séparée sont irréguliers dans le temps avec une taille maximale du bulbe de recirculation variant d’un cycle à l’autre. Ce comportement du bulbe de recirculation traduit une modulation basse fréquence des amplitudes des oscillations des points de séparation et de recollement et donc une respiration basse fréquence de la zone séparée. Ces résultats suggèrent que l’instabilité de l’IOCCL est liée à cette dynamique basse fréquence du bulbe de recirculation, les oscillations du pied du choc réfléchi étant en phase avec le point de séparation. / Situations where an incident shock wave impinges upon a boundary layer are common in the aeronautical and spatial industries. Under certain circumstances (High Mach number, large shock angle...), the interaction between an incident shock wave and a boundary layer may create an unsteady separation bubble. This bubble, as well as the subsequent reflected shock wave, are known to oscillate in a low-frequency streamwise motion. This phenomenon, called the unsteadiness of the shock wave boundary layer interaction (SWBLI), subjects structures to oscillating loads that can lead to damages for the solid structure integrity.The aim of the present work is the unsteady numerical simulation of (SWBLI) in order to contribute to a better understanding of the SWBLI unsteadiness and the physical mechanism causing these low frequency oscillations of the interaction zone.To perform this study, an original numerical approach is used. The one step Finite Volume approach relies on the discretization of the convective fluxes of the Navier Stokes equations using the OSMP scheme developed up to the 7-th order both in space and time, the viscous fluxes being discretized using a standard centered Finite-Difference scheme. A Monotonicity-Preserving (MP) constraint is employed as a shock capturing procedure. The validation of this approach demonstrates the correct accuracy of the OSMP scheme to predict turbulent features and the great efficiency of the MP procedure to capture discontinuities without spoiling the solution and with an almost negligible additional cost. It is also shown that the use of the highest order tested of the OSMP scheme is relevant in term of simulation time and accuracy compromise. Moreover, an order of accuracy higher than 2-nd order for approximating the diffusive fluxes seems to have a negligible influence on the solution for such relatively high Reynolds numbers.By simulating the 3D unsteady interaction between a laminar boundary layer and an incident shock wave, we suppress the suspected influence of the large turbulent structures of the boundary layer on the SWBLI unsteadiness, the only remaining suspected cause of unsteadiness being the dynamics of the separation bubble. Results show that only the reattachment point oscillates at low frequencies characteristic of the breathing of the separation bubble. The separation point of the recirculation bubble and the foot of the reflected shock wave have a fixed location along the flat plate with respect to time. It shows that, in this configuration, the SWBLI unsteadiness is not observed.In order to reproduce and analyse the SWBLI unsteadiness, the simulation of a shock wave turbulent boundary layer interaction (SWTBLI) is performed. A Synthetic Eddy Method (SEM), adapted to compressible flows, has been developed and used at the inlet of the simulation domain for initiating the turbulent boundary layer without prohibitive additional computational costs. Analyses of the results are performed using, among others, the snapshot Proper Orthogonal Decomposition (POD) technique. For this simulation, the SWBLI unsteadiness has been observed. Results suggest that the dominant flapping mode of the recirculation bubble occurs at medium frequency. These cycles of successive enlargement and shrinkage of the separated zone are shown to be irregular in time, the maximum size of the recirculation bubble being submitted to discrepancies between successive cycles. This behaviour of the separation bubble is responsible for a low frequency temporal modulation of the amplitude of the separation and reattachment point motions and thus for the low frequency breathing of the separation bubble. These results tend to suggest that the SWBLI unsteadiness is related to this low frequency dynamics of the recirculation bubble; the oscillations of the reflected shocks foot being in phase with the motion of the separation point.
805

Les algorithmes d’apprentissage pour l’aide au stationnement urbain / Learning algorithms to aid urban parking

Houissa, Asma 15 March 2018 (has links)
L’objectif de cette thèse est de développer, d’intégrer et de tester une nouvelle approche algorithmique d’aide au stationnement dans les centres urbains. Considérons différents types d’infrastructures déployées allant de la détection des entrées/sorties des véhicules jusqu'à la variation dans le temps du nombre de places de stationnement disponibles dans chaque portion de rue, nous montrons qu’il est possible de proposer une méthode efficace qui détermine un itinéraire qui minimise l’espérance de temps pour trouver une place de stationnement disponible et de prédire la disponibilité des placesde stationnement.Pour cela, la zone urbaine choisie sera donc considérée comme un ensemble de ressources de stationnement (segments de rues).Nous modélisons d’abord cette zone urbaine par un graphe où les sommets désignent les carrefours et les arcs représentent les portions de rues. Les paramètres essentiels pour notre modèle de réseau urbain sont la capacité de stationnement et le temps de parcours des portions de rue.L’originalité et l’aspect innovant de notre approche s’appuient sur deux principes.Le premier principe concerne le guidage comme une ressource : il ne s’agit pas de guider vers une place libre mais de proposer un parcours qui optimise l’espérance de temps de trouver une telle place. Pour cela nous déterminons dans une zone centrée sur une destination donnée, le parcours à effectuer par un véhicule pour minimiser son espérance de temps de trouver une place destationnement le plus rapidement possible.Ainsi nous avons mis en œuvre un algorithme d’apprentissage par renforcement basée sur la méthode LRI (Linear Reward Inaction) et la méthode Monte Carlo pour minimiser l’espérance de temps de trouver une place de stationnement en zone urbaine.Nous avons comparé cet algorithme avec une approche globale basée sur l’évaluation arborescente à profondeur bornée.Le second principe repose sur la prédiction des places de stationnement disponibles par périodes de temps homogènes où on ne s’intéresse pas à une place de stationnement en temps réel mais aux places de stationnement par zones. Il s’agit alors pour le système de pouvoir prédire le potentiel de places libres dans chacune des ressources pour les prochaines périodes. On ne vise donc pas ici la prédiction de la disponibilité de chaque place ; chaque ressource sera considérée comme une zone de stockage dont la disponibilité sera établie en grande partie en fonction des flux d’entrée et de sortie de la portion. Pour ce principe, nous avons donc déterminé par algorithmes de calculs et d’apprentissages la probabilité qu’il y ait au moins une place libre pour stationner dans un tronçon de rue pour un créneau de temps donné. Les principales données nécessaires pour effectuer ces calculs sont les séries temporelles d’entrée sortie de chaque véhicule aux intersections des rues et les variations des places de stationnement au cours du temps.Nous avons évalué les performances de notre approche par simulations sur des données générées aléatoirement et des données réelles obtenues sur un quartier de Versailles. / The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don’t aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles.
806

Calcul précis de l'équation d'état des gaz leptoniques : quelques implications pour la formation et la destruction des étoiles à neutrons

Chatri, Hayat 03 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / Les étoiles massives (M≥8M.) deviennent des supernovae de type II à la fin de leur vie. Ce phénomène explosif est caractérisé par l'effondrement du cœur de Fer (56Fe) qui, sous l'influence de sa propre gravité se détache des couches externes qui l'enveloppent. La théorie prédit que le cœur de l'étoile survit à cette explosion sous la forme d'une étoile à neutrons. Cette dernière pourrait subir une collision avec une autre étoiles à neutrons. Comme résultat d'une telle collision, il y aura une expulsion de la matière neutronique. Pour décrire ces deux processus d'effondrement et de décompression, on doit posséder une bonne équation d'état. Or, dans la plupart des études sur la matière nucléaire dans les étoiles massives en implosion, les intégrales se trouvant dans les quantités fondamentales telles que la pression, l'énérgie et l'entropie des électrons ont été représentés par des expressions approchées de Chandrasekhar. Cependant, ces approximations ne sont plus valables à certaines conditions (basse densité et haute température), et il nous est impossible de savoir ce qui se passe dans le milieu stellaire dans de telles conditions; et même dans le cas où ces approximations sont valables, plusieurs questions se posent toujours sur le degré d'erreur dû à ces approximations qui peuvent être, parfois, trompeuses. Dans notre étude on a pris en considération l'effet de création de paires qu'aura lieu dans le milieu stellaire à des basses densités et hautes températures; l'inclusion de ce détail constitue un élément nouveau de cette étude. Le but de ce mémoire consiste à mener un calcul exact pour toutes les quantités physiques de l'équation d'état en évaluant numériquement ces intégrales, et aussi à voir quelles contributions elles peuvent apporter lors de leurs insertion dans des programmes déjà développés au Département de Physique de l'Université de Montréal, mais qui utilisent seulement des approximations. La bonne précision de nos calculs d'intégrales et les différentes méthodes utilisées pour vérifier leurs valeurs numériques nous a permis de faire des corrections importantes à toutes les quantités physiques de l'équation et, surtout, à l'entropie et l'énergie libre de Helmholtz. Ce calcul nous a permis aussi de déterminer les domaines de validité des expressions approchés de Chandrasekhar, souvent utilisées par les astrophysiciens, et celles de la limite "bulle chaude".
807

L'habileté des élèves du district fédéral du Brésil à estimer des résultats de calculs

Boessenkool, Geessina Gerda 27 November 2019 (has links)
Cette recherche vise deux objectifs: (1) évaluer l'habileté des élèves brésiliens à estimer des résultats de calculs, et (2) mettre en évidence les stratégies qu'ils utilisent pour faire de telles estimations. Pour atteindre le premier, nous avons administré à l’aide du rétroprojecteur un test à 197 élèves de 5e et 172 de 8e année provenant de trois écoles (une privée et deux publiques) du Brésil. Pour réaliser le second, nous avons fait des entrevues cliniques avec 16 sujets, choisis parmi les précédents d'après leur rendement fort, moyen ou faible au test d'estimation. Les résultats obtenus montrent que les élèves des deux niveaux sont très faibles dans l'estimation de résultats de calculs, qui n'est pas enseignée à l'école. La plupart n'emploient qu'une stratégie d'estimation: la stratégie frontale. Les élèves de 8e année affichent un rendement nettement supérieur, de même que les élèves provenant de l'école privée. Les garçons obtiennent de meilleurs résultats que les filles. / Québec Université Laval, Bibliothèque 2019
808

Calcul en fatigue des ouvrages métalliques par la mécanique de la rupture (approche probabiliste)

Jiang, Li 21 October 1994 (has links) (PDF)
Cette thèse est une contribution à l'analyse probabiliste des ponts métalliques ou mixtes en fatigue. Dans cette thèse, nous proposons des méthodes originales, pour calculer l'indice de fiabilité ß et évaluer la probabilité de ruine, basées respectivement sur le modèle d'endommagement linéaire de Miner et sur la loi de propagation de fissure de Paris à seuil, qui prennent en compte les aléas quantifiés sur les charges de trafic réel et sur la résistance déduite des essais de fatigue. L'application du théorème central limite permet des calculs analytiques explicites du dommage cumulé. La modélisation de l'avancement de fissure par processus Markovien simplifie les calculs de la distribution de probabilité. Un programme informatique est fait pour calculer l'intégrale J et pour déterminer le facteur d'intensité de contraintes.
809

LES LOGICIELS TUTEURS FERMES : INSTITUTIONS D'APPRENTISSAGE ET D'ENSEIGNEMENT DES MATHÉMATIQUES ? LE CAS DU DÉBUT DU SECONDAIRE.

Souchard, Laurent 20 October 2009 (has links) (PDF)
Les Logiciels Tuteurs Fermés, ou LTF, sont utilisés dans les classes dans de nombreux collèges en mathématiques. Pour analyser leur place potentielle dans l'École, nous avons construit un modèle centré sur la notion d'institution, centrale dans la Théorie Anthropologique du Didactique, définie, par nous, à partir des critères suivants : la réalité sociale, la légitimité, la stabilité et la spécificité. Pour comprendre si un LTF peut être utilisé en tant qu'institution d'enseignement et d'apprentissage, chacun des quatre logiciels de notre étude a été inspecté entièrement par un expert dont les captures vidéos nous ont permis des comparaisons avec le travail des élèves de notre expérimentation. Le décryptage de l'ensemble de ces données a été conduit grâce à un logiciel d'analyse du comportement, The Observer de chez Noldus. Plus spécifiquement, en ce qui concerne l'apprentissage des mathématiques, nous avons choisi d'analyser la façon dont les quatre LTF proposent un apprentissage du calcul, qu'il soit arithmétique, numérique ou algébrique. Nous avons pour cela étendu au numérique le cadre théorique conçu par Houdement et Kuzniak pour l'apprentissage de la géométrie, et notamment les notions de paradigme et d'espace de travail. Les analyses que nous avons conduites nous ont permis de montrer que les LTF de notre étude ne peuvent que difficilement être utilisés en tant qu'institution autonome de l'institution principale qu'est la classe ordinaire. Mais leur usage peut être valorisé pour l'apprentissage des élèves en créant des institutions parallèles adaptées.
810

Sur l'extensibilité parallèle de solveurs linéaires hybrides pour des problèmes tridimensionels de grandes tailles

Haidar, Azzam 23 June 2008 (has links) (PDF)
La résolution de très grands systèmes linéaires creux est une composante de base algorithmique fondamentale dans de nombreuses applications scientifiques en calcul intensif. La résolution per- formante de ces systèmes passe par la conception, le développement et l'utilisation d'algorithmes parallèles performants. Dans nos travaux, nous nous intéressons au développement et l'évaluation d'une méthode hybride (directe/itérative) basée sur des techniques de décomposition de domaine sans recouvrement. La stratégie de développement est axée sur l'utilisation des machines mas- sivement parallèles à plusieurs milliers de processeurs. L'étude systématique de l'extensibilité et l'efficacité parallèle de différents préconditionneurs algébriques est réalisée aussi bien d'un point de vue informatique que numérique. Nous avons comparé leurs performances sur des systèmes de plusieurs millions ou dizaines de millions d'inconnues pour des problèmes réels 3D .

Page generated in 0.1534 seconds