• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Application du calcul d'incidence à la fusion de données

Dumas, Marc-André 11 April 2018 (has links)
Le calcul d'incidence généralisé est une technique hybride symbolique-numérique qui présente un potentiel intéressant pour la fusion de données, notamment par sa correspondance possible avec la théorie de l'évidence. Ce mémoire présente une série de modifications au calcul d'incidence généralisé afin qu'il puisse être utilisé pour éliminer le problème de bouclage d'information, un problème important de la fusion de données qui fait que les données corrélées prennent une importance plus grande. Ces modifications permettent aussi de représenter divers types de combinaisons à l'aide de l'approche des univers possibles. Il est notamment possible d'effectuer des combinaisons de Yager associatives et des parallèles peuvent être faits avec la théorie de Dezert et Smarandache. / Generalized Incidence Calculus is a hybrid symbolic-numeric approach to data fusion that presents many interesting characteristics, in particular a correspondence with the Theory of Evidence. This master's thesis presents modifications to Generalized Incidence Calculus for its application to eliminate the Data Looping problem which makes combination of correlated data take more importance. Those modifications also allow the representation of alternative combinations of the Theory of Evidence by using a possible worlds approach. In particular, it is possible to associatively combine data using the Yager combination and parallels can be made with the Dezert-Smarandache Theory.
482

La contextualisation en mathématiques dans le cours de Calcul différentiel au collégial

Couture, Marie-Laure 03 August 2023 (has links)
Titre de l'écran-titre (visionné le 25 juillet 2023) / La présente recherche a pour principal objectif d'étudier la manière dont les étudiants résolvent des tâches contextualisées et de documenter leur attitude vis-à-vis celles-ci. Pour y arriver, nous avons élaboré deux activités, nommées tâches contextualisées, qui renvoient à la contextualisation selon les caractéristiques établies par les principaux chercheurs dans le domaine (Janvier, 1991; Zazkis, 2016; Mazzeo, 2008; El Gaidi et Ekholm, 2015). Puis, nous avons proposé ces tâches contextualisées à un groupe de quarante-deux étudiants suivant le cours Calcul différentiel, un cours offert en première session du programme Sciences de la nature au collégial. Les données recueillies par captations vidéo suggèrent que la contextualisation apporte une contribution dans la mobilisation des concepts mathématiques particulièrement en consolidant ceux déjà acquis. Même s'il peut engendrer à certains moments une confusion ou mener les équipes vers de fausses pistes, le recours au contexte offre de nombreux apports : un support à la compréhension, des validations mathématiques, des clarifications et la formulation de réponses plus approfondies. Par l'entremise de questionnaires distribués aux étudiants, nous avons constaté que les étudiants perçoivent les tâches contextualisées de manière assez positive. La plupart d'entre eux éprouvent de la joie à résoudre ces tâches et perçoivent peu de difficulté face à celles-ci. La majorité d'entre eux ont notamment évoqué qu'ils percevaient mieux l'utilité et l'intérêt d'apprendre les concepts mathématiques. L'analyse de nos données suggère que la contextualisation est une stratégie intéressante pour les professeurs du collégial dans la mobilisation des concepts mathématiques.
483

A rigorous numerical method for the proof of Galaktionov-Svirshchevskii's conjecture

Thiam, Abdoulaye 23 April 2018 (has links)
La théorie des systèmes dynamiques étudie les phénomènes qui évoluent au cours du temps. Plus précisément, un système dynamique est donné par : un espace de phase dont les points correspondent à des états possibles du système étudié et une loi d'évolution décrivant l'infinitésimal (pour le cas continu) pas à pas (pour le cas discret) les changements des états du système. Le but de la théorie est de comprendre l'évolution dans le long terme. Dans ce travail, nous présentons une nouvelle méthode pour la résolution des systèmes linéaires avec preuve assistée par ordinateur dans le cadre de modèles linéaires réalistes. Après une introduction de quelques propriétés de la théorie des équations différentielles ordinaires, on introduit une méthode de calcul rigoureux pour trouver la solution périodique de la conjecture de Galaktionov-Svirshchevskii. On reformule le problème comme un problème à valeur initiale, puis on calcule la solution périodique dans le domaine positif et on déduit l'autre solution par symétrie. Notre résultat énonce une partie de la conjecture 3:2 dans le livre de Victor A. Galaktionov & Sergey R. Svirshchevskii : Exact Solutions and Invariant Subspaces of Nonlinear Partial Differential Equations in Mechanics and Physics, [Chapman & Hall/CRC, applied mathematics and nonlinear science series, (2007)]. Mots clés. Conjecture de Galaktionov-Svirshchevskii, Analyse d'intervalle, Théorème de contraction de Banach, Polynômes de rayons. / The theory of dynamical systems studies phenomena which are evolving in time. More precisely, a dynamical system is given by the following data: a phase space whose points correspond to the possible states of the system under consideration and an evolution law describing the infinitesimal (for continuous time) or one-step (for discrete time) change in the state of the system. The goal of the theory is to understand the long term evolution of the system. In this work, we introduce a new method for solving piecewise linear systems with computer assisted proofs in the context of realistic linear models. After introducing some properties of the theory of ordinary differential equations, we provide a rigorous computational method for finding the periodic solution of Galaktionov-Svirshchevskii's conjecture. We reformulate the problem as an initial value problem, compute periodic solution in the positive domain and deduce the other solution by symmetry. Our result settles one part of the Conjecture 3:2 by Victor A. Galaktionov & Sergey R. Svirshchevskii: Exact Solutions and Invariant Subspaces of Nonlinear Partial Differential Equations in Mechanics and Physics, [Chapman & Hall/CRC, applied mathematics and nonlinear science series, (2007)]. Key words. Galaktionov-Svirshchevskii's conjecture, Interval analysis, Contraction mapping theorem, Radii polynomials.
484

Calcul de la capacité portante des murs en maçonnerie de petits éléments sous charges verticales

Lateb, Mourad 28 March 1995 (has links) (PDF)
Dans cette recherche est développé un modèle de calcul de la capacité portante des murs en maçonnerie de petits éléments sous charges verticales centrées ou excentrées. Le modèle est capable de prendre en compte l'influence des discontinuités mécaniques introduites par les joints horizontaux et verticaux en considérant les caractéristiques mécaniques des blocs et des joints de mortier. La détermination des caractéristiques mécaniques du mortier des joints a également été menée. Les essais sur des éprouvettes découpées dans les joints de mortier après durcissement ont mis en évidence l'influence des phénomènes de succion des blocs sur les caractéristiques mécaniques du mortier. Cette étude a montré également que la détermination de la loi de comportement du mortier à partir .de celle des assemblages et des blocs en utilisant l'approche proposée par PAGE sous-estime la valeur du module d'élasticité initial du mortier. Un dispositif expérimental spécifique a été mis au point pour la détermination des lois excentricité-courbure à effort normal maintenu constant. Ce dispositif permet également de mettre en évidence les modes de rupture observés dans les assemblages ainsi que l'influence du type de mortier sur leur déformabilité. D'une manière générale, on a pu constater une bonne correspondance entre résultats théoriques et expérimentaux en particulier dans le cas où l'on considère la maçonnerie comme un matériau hétérogène.
485

Deux Méthodes d'Approximation pour un Contrôle Optimal Semi-Décentralisé pour des Systèmes Distribués

Yakoubi, Youssef 15 July 2010 (has links) (PDF)
Dans cette thèse, nous avons développé deux approches pour la construction de contrôleurs approchés semi-décentralisés. La thèse est partagée en deux parties, chaque partie décrivant une approche précise. Première Partie: elle traite de l'approximation semi-décentralisée d'un contrôle optimal pour des équations aux dérivées partielles (EDPs) dans un domaine borné. Dans cette partie on présente une méthode de calcul de contrôle optimal pour des systèmes distribués linéaires avec un opérateur d'entré borné ou non borné. Sa construction repose sur le calcul fonctionnel des opérateurs auto-adjoints et sur la formule de Dunford- Schwartz. Elle est conçue pour des architectures de calcul à très fine granularité, avec coordination semi-décentralisée. Enfin, elle est illustrée par des exemples portant en particulier sur la stabilisation interne de la chaleur, la stabilisation des vibrations d'une poutre, la stabilisation des vibrations dans une matrice de micro-cantilevers... Deuxième Partie: elle est consacrée à l'obtention de réalisations d'état, d'opérateurs linéaires solutions de quelques équations opératorielles différentielles linéaires dans des domaines bornés mono-dimensionnels. Nous proposons deux approches dans le cadre de réalisations diffusives. La première utilise des symboles complexes et la seconde des symboles réels sur l'axe réel. Puis, on illustre la théorie et on développe des méthodes numériques pour le contexte d'une application à l'équation de Lyapunov issue de la théorie du contrôle optimal pour l'équation de la chaleur. Un intérêt pratique pour cette approche est le calcul en temps réel sur des processeurs organisés pour une architecture semi-décentralisée.
486

Memory and performance issues in parallel multifrontal factorizations and triangular solutions with sparse right-hand sides / Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l’utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d’entrées de l’inverse d’une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d’abord plusieurs schémas de stockage qui permettent de réduire significativement l’espace mémoire utilisé lors de la résolution, dans le cadre d’exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d’accès aux facteurs, qui sont stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d’opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d’abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les technique de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d’algorithmes de répartition et d’ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l’utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d’inconnues) et sur des machines massivement parallèles (jusqu’à quelques milliers de coeurs). Elles ont permis d’améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur). / We consider the solution of very large sparse systems of linear equations on parallel architectures. In this context, memory is often a bottleneck that prevents or limits the use of direct solvers, especially those based on the multifrontal method. This work focuses on memory and performance issues of the two memory and computationally intensive phases of direct methods, that is, the numerical factorization and the solution phase. In the first part we consider the solution phase with sparse right-hand sides, and in the second part we consider the memory scalability of the multifrontal factorization. In the first part, we focus on the triangular solution phase with multiple sparse right-hand sides, that appear in numerous applications. We especially emphasize the computation of entries of the inverse, where both the right-hand sides and the solution are sparse. We first present several storage schemes that enable a significant compression of the solution space, both in a sequential and a parallel context. We then show that the way the right-hand sides are partitioned into blocks strongly influences the performance and we consider two different settings: the out-of-core case, where the aim is to reduce the number of accesses to the factors, that are stored on disk, and the in-core case, where the aim is to reduce the computational cost. Finally, we show how to enhance the parallel efficiency. In the second part, we consider the parallel multifrontal factorization. We show that controlling the active memory specific to the multifrontal method is critical, and that commonly used mapping techniques usually fail to do so: they cannot achieve a high memory scalability, i.e. they dramatically increase the amount of memory needed by the factorization when the number of processors increases. We propose a class of "memory-aware" mapping and scheduling algorithms that aim at maximizing performance while enforcing a user-given memory constraint and provide robust memory estimates before the factorization. These techniques have raised performance issues in the parallel dense kernels used at each step of the factorization, and we have proposed some algorithmic improvements. The ideas presented throughout this study have been implemented within the MUMPS (MUltifrontal Massively Parallel Solver) solver and experimented on large matrices (up to a few tens of millions unknowns) and massively parallel architectures (up to a few thousand cores). They have demonstrated to improve the performance and the robustness of the code, and will be available in a future release. Some of the ideas presented in the first part have also been implemented within the PDSLin (Parallel Domain decomposition Schur complement based Linear solver) solver.
487

Modélisation multi-physique en génie électrique. Application au couplage magnéto-thermo-mécanique / Multiphysics modeling in electrical engineering. Application to a magneto-thermo-mechanical model

Journeaux, Antoine 18 November 2013 (has links)
Cette thèse aborde la problématique de la modélisation multiphysique en génie électrique, avec une application à l’étude des vibrations d’origine électromagnétique des cages de développantes. Cette étude comporte quatre parties : la construction de la densité de courant, le calcul des forces locales, le transfert de solutions entre maillages et la résolution des problèmes couplés. Un premier enjeu est de correctement représenter les courants, cette opération est effectuée en deux étapes : la construction de la densité de courant et l’annulation de la divergence. Si des structures complexes sont utilisées, l’imposition du courant ne peut pas toujours être réalisée à l’aide de méthodes analytiques. Une méthode basée sur une résolution électrocinétique ainsi qu’une méthode purement géométrique sont testées. Cette dernière donne des résultats plus proches de la densité de courant réelle. Parmi les nombreuses méthodes de calcul de forces, les méthodes des travaux virtuels et des forces de Laplace, considérées par la littérature comme les plus adaptées au calcul des forces locales, ont été étudiées. Nos travaux ont montré que bien que les forces de Laplace sont particulièrement précises, elles ne sont pas valables si la perméabilité n’est plus homogène. Ainsi, la méthode des travaux virtuels, applicable de manière universelle, est préférée. Afin de modéliser des problèmes multi-physiques complexes à l’aide de plusieurs codes de calculs dédiés, des méthodes de transferts entre maillages non conformes ont été développées. Les procédures d’interpolations, les méthodes localement conservatives et les projections orthogonales sont comparées. Les méthodes d’interpolations sont réputées rapides mais très diffusives tandis que les méthodes de projections sont considérées comme les plus précises. La méthode localement conservative peut être vue comme produisant des résultats comparables aux méthodes de projections, mais évite l’assemblage et la résolution de systèmes linéaires. La modélisation des problèmes multi-physiques est abordée à l’aide des méthodes de transferts de solutions. Pour une classe de problème donnée, l’assemblage d’un schéma de couplage n’est pas unique. Des tests sur des cas analytiques sont réalisés afin de déterminer, pour plusieurs types de couplages, les stratégies les plus appropriées.Ces travaux ont permis une application à la modélisation magnéto-mécanique des cages de développantes est présentée. / The modeling of multi-phycics problems in electrical engineering is presented, with an application to the numerical computation of vibrations within the end windings of large turbo-generators. This study is divided into four parts: the impositions of current density, the computation of local forces, the transfer of data between disconnected meshes, and the computation of multi-physics problems using weak coupling, Firstly, the representation of current density within numerical models is presented. The process is decomposed into two stages: the construction of the initial current density, and the determination of a divergence-free field. The representation of complex geometries makes the use of analytical methods impossible. A method based on an electrokinetical problem is used and a fully geometrical method are tested. The geometrical method produces results closer to the real current density than the electrokinetical problem. Methods to compute forces are numerous, and this study focuses on the virtual work principle and the Laplace force considering the recommendations of the literature. Laplace force is highly accurate but is applicable only if the permeability is uniform. The virtual work principle is finally preferred as it appears as the most general way to compute local forces. Mesh-to-mesh data transfer methods are developed to compute multi-physics models using multiples meshes adapted to the subproblems and multiple computational software. The interpolation method, a locally conservative projection, and an orthogonal projection are compared. Interpolation method is said to be fast but highly diffusive, and the orthogonal projections are highly accurate. The locally conservative method produces results similar to the orthogonal projection but avoid the assembly of linear systems. The numerical computation of multi-physical problems using multiple meshes and projections is then presented. However for a given class of problems, there is not an unique coupling scheme possible. Analytical tests are used to determine, for different class of problems, the most accurate scheme. Finally, numerical computations applied to the structure of end-windings is presented.
488

Mental Arithmetic in Consumer Judgments : Mental Representations, Computational Strategies and Biases. / Arithmétique Mentale dans les Jugements des Consommateurs : Représentations Mentales, Stratégies de Calcul et les Biais.

Sokolova, Tatiana 23 June 2015 (has links)
Dans ma thèse, j’étudie les représentations mentales et les processus cognitifs qui sous-tendent le calcul mental sur le marché. Cette thèse contribue à la recherche de prix psychologique en décrivant de nouveaux facteurs qui influencent les jugements de prix des consommateurs. En particulier, je découvre facteurs qui rendent les consommateurs plus ou moins susceptibles d’arrondir les prix vers le bas (Essai 1) et les facteurs qui déterminent leur tendance à se fixer sur les différences de pourcentage (Essai 3). En outre, cette recherche fournit de nouvelles perspectives à la littérature de budgétisation mentale en identifiant des stratégies de calcul mental qui conduisent à des estimations panier de prix plus précis (Essay 2). Dans l'ensemble, ma recherche va contribuer à notre compréhension des jugements de prix des consommateurs et proposer des contextes et des stratégies conduisant à des évaluations de prix plus précis. / In my dissertation I look at mental representations and cognitive processes that underlie mental arithmetic in the marketplace. This research contributes to behavioral pricing literature by outlining novel factors that influence consumers’ price difference judgments. Particularly, I uncover factors that make consumers more or less likely to fall prey to the left-digit anchoring bias (Essay 1) and factors that determine their tendency to rely on relative thinking in price difference evaluations (Essay 3). Further, this research provides new insights to the mental budgeting literature by identifying mental computation strategies that lead to more accurate basket price estimates (Essay 2). Overall, I expect my research to contribute to our understanding of consumers’ price judgments and suggest contexts and strategies leading to more accurate price evaluations.
489

De la géométrie algorithmique au calcul géométrique

Pion, Sylvain 19 November 1999 (has links) (PDF)
Dans cette thèse, nous définissons des méthodes efficaces et génériques<br /> dans le but de résoudre les problèmes de robustesse que pose la géométrie algorithmique,<br /> en se concentrant principalement sur l'évaluation exacte des prédicats<br /> géométriques.<br /> Nous avons exploré des méthodes basées sur l'arithmétique<br /> modulaire, ce qui nous a conduits à mettre au point des algorithmes simples<br /> et efficaces de reconstruction du signe dans cette représentation des<br /> nombres.<br /> Nous avons également mis au point de nouveaux types de filtres<br /> arithmétiques qui permettent d'accélérer<br /> le calcul des prédicats exacts, en contournant le coût des solutions<br /> traditionnelles basées sur des calculs multi-précision génériques.<br /> Nos méthodes sont basées sur l'utilisation de l'arithmétique<br /> d'intervalles, qui permet une<br /> utilisation souple et efficace, combinée à un outil de génération<br /> automatique de code des prédicats.<br /> Ces solutions sont maintenant disponibles dans la bibliothèque<br /> d'algorithmes géométriques CGAL.
490

Utilisation de BlobSeer pour le stockage de données dans les clouds : auto-adaptation, intégration, évaluation

Carpen-Amarie, Alexandra 15 December 2011 (has links) (PDF)
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.

Page generated in 0.0271 seconds