• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 80
  • 40
  • 1
  • 1
  • Tagged with
  • 367
  • 120
  • 81
  • 69
  • 48
  • 46
  • 39
  • 39
  • 38
  • 35
  • 34
  • 34
  • 33
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Calculs formels assistés par ordinateur pour les transformations de contact: dérivation systématique des Hamiltoniens effectifs rovibrationnels à partir des surfaces d'énergie potentielle

Seghir, Habib Tyuterev, Vladimir. January 2005 (has links) (PDF)
Reproduction de : Thèse doctorat : Physique : Reims : 2004. / Titre provenant de l'écran titre. Bibliogr. : 178ref.
42

Redistribution dynamique parallèle efficace de la charge pour les problèmes numériques de très grande taille

Fourestier, Sébastien 20 June 2013 (has links) (PDF)
Cette thèse traite du problème de la redistribution dynamique parallèle efficace de la charge pour les problèmes numériques de très grande taille. Nous présentons tout d'abord un état de l'art des algorithmes permettant de résoudre les problèmes du partitionnement, du repartitionnement, du placement statique et du re-placement. Notre première contribution vise à étudier, dans un cadre séquentiel, les caractéristiques algorithmiques souhaitables pour les méthodes parallèles de repartitionnement. Nous y présentons notre contribution à la conception d'un schéma multi-niveaux k-aire pour le calcul sequentiel de repartitionnements. La partie la plus exigeante de cette adaptation concerne la phase d'expansion. L'une de nos contributions majeures a été de nous inspirer des méthodes d'influence afin d'adapter un algorithme de raffinement par diffusion au problème du repartitionnement.Notre deuxième contribution porte sur la mise en oeuvre de ces méthodes sur machines parallèles. L'adaptation du schéma multi-niveaux parallèle a nécessité une évolution des algorithmes et des structures de données mises en oeuvre pour le partitionnement. Ce travail est accompagné d'une analyse expérimentale, qui est rendue possible grâce à la mise en oeuvre des algorithmes considérés au sein de la bibliothèque Scotch.
43

Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes

Bernard, Francis January 2013 (has links)
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
44

Amélioration du rendement des alimentations sans interruption

Rizet, Corentin 10 May 2011 (has links) (PDF)
Les Alimentations Sans Interruption sont utilisées pour assurer la qualité et la continuité de l'énergie fournie aux charges sensibles. Basées sur deux conversions d'énergie électrique, ces alimentations supportent en permanence la puissance de la charge, rendant crucial leur rendement. Cette thèse a exploré différentes voies d'amélioration du rendement du commutateur assurant la conversion : le choix des composants semi-conducteurs, celui de la structure de conversion et du mode de fonctionnement. Le filtrage a été pris en compte sans faire l'objet d'investigations poussées. La méthode d'estimation du rendement, exploitant des données des constructeurs, a permis de quantifier l'impact et les limites de chaque voie explorée. Plusieurs structures de conversion multi-niveaux en commutation douce ont été développées, utilisant un pôle résonant. Enfin, plusieurs expérimentations ont validé les modèles utilisés, le concept du pôle résonant et la réalisation d'un prototype fonctionnel de 125 kVA.
45

Modélisation et résolution de problèmes de décision et d'optimisation hiérarchiques en utilisant des contraintes quantifiées

Vautard, Jérémie 15 April 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la programmation par contraintes quantifiées, un formalisme étendantla programmation par contraintes classique en ajoutant aux variables des quantificateurs existentiels ouuniversels, ce qui apporte en théorie une expressivité suffisante pour modéliser des problèmes avec adversaireou incertitude sur certains paramètres sous forme de problèmes appelés QCSP (Quantified Constraintsatisfaction Problem).Nous commençons par apporter une réponse aux difficultés de modélisation de problèmes réels dont estfrappée la programmation par contraintes quantifiées en introduisant une extension aux QCSP permettantd'expliciter les actions possibles de l'agent principal et de son adversaire. Puis, nous décrivons différentproblèmes grâce à ce formalisme, et discutons de la place de cette extension parmi les formalismes voisins créésen réponse à cette même difficulté de modélisation. Enfin, nous nous intéressons à la notion d'optimisationdans le cas des contraintes quantifiées, et apportons un formalisme d'optimisation de contraintes quantifiéespermettant d'exprimer des problèmes multi-niveaux non linéaires.
46

Une nouvelle grille de marques de registres de langue : perception et usage des rédacteurs et communicateurs québécois

Langlois, Marie-France. January 1999 (has links)
Thèses (M.A.)--Université de Sherbrooke (Canada), 1999. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
47

L'agir enseignant en classe de FLE multilingue et multi-niveaux en milieu homoglotte / The act of teaching (FFL) French as a foreign language in a multilingual and multi-level class

David-Lodovici, Catherine 22 November 2013 (has links)
Dans ce travail de recherche, nous nous interrogeons sur les modalités d’enseignement/apprentissage du FLE dans une classe multilingue et multi-niveaux en FLE (A1-B2+). Notre terrain : un public d’une vingtaine d’apprenants au pair venus étudier en France pour un an et disposant d’une journée par semaine pour venir assister au cours de français, dans un contexte multi-niveaux. Notre recherche se fonde sur trois corpus. Le corpus 1 rassemble les évaluations diagnostiques et finales de ces apprenants. L’analyse quantitative du corpus 1 révèle une progression dans toutes les capacités langagières, quasi comparable aux statistiques de progression du CECR. Le corpus 2 est composé d’une trentaine de questionnaires d’enquête dans lesquels les apprenants au pair évaluent leurs progrès ainsi que les aspects positifs et négatifs de ce contexte d’apprentissage. Nous avons codé leurs réponses en plusieurs catégories : 67 % des catégories recensées ont une valeur positive (Révisions, stimulation, tutorat, exercices adaptés au niveau) et 33% évoquent des aspects négatifs (progression parfois lente, frustration, disponibilité de l’enseignant insuffisante). Nous montrons comment les concepts issus des approches communicatives et actionnelles peuvent justifier de la pertinence d’une classe multi-niveaux en milieu homoglotte. Notre hypothèse est de dire que l’agir enseignant escorte le processus d’apprentissage dans ce contexte et vient compléter le bain linguistique. Quels sont alors les gestes professionnels récurrents spécifiques à ce contexte didactique ? Dans le corpus 3, nous avons filmé 15 heures de classe et nous analysons, à l’aide d’un synopsis, la structure des séances ainsi que les gestes didactiques (dispositifs, régulations et mémoire didactique). Des transcriptions d’interactions viennent illustrer nos analyses. Il se dégage une « grammaire de l’action didactique » dont la logique combine 5 modalités de regroupements possibles avec 3 manières différentes de didactiser les supports. / We wonder about the ways of teaching/learning the FLE (French as a foreign language) in a multilingual and multi-level (A1 - B2 +) class. This research concern au pair learners in France for a year and attending French class once a week, in a multi-level context. Our research is based on three corpus. Corpus 1 compare the diagnostic and final results of these learners. The quantitative analysis reveals that they improve in all language skills, which is almost comparable to the CECR progression statistics. Corpus 2 is composed of thirty survey questionnaires in which learners evaluate their progress as well as the positive and negative aspects of this learning context. We have coded their responses in several categories: 67% of the identified categories have a positive value (Revisions, stimulation, tutoring and exercises tailored to the level) and 33% evoke negative aspects (sometimes slow progress, frustration, insufficient teacher availability). We show how the concepts from the communicative and task-based approaches can justify the relevance of a multi-level homoglotte class. Our hypothesis is that the actions of the teacher escort the learning process in this context and complement the full-immersion. In this educational context-specific, what are the recurring professional actions? In the corpus 3, we have filmed 15 hours of class and using a synopsis, we analyze the structure of the sessions as well as the educational actions (devices, regulations and teaching memory). The transcriptions of interactions illustrate our analysis. This leads us to propose a "grammar of the didactic action" whose logic combines 5 way of grouping the students as well as three different ways of apprehending didactically the documents for the class.
48

Développement d'une plateforme de simulation atomistique pour les procédés en phase vapeur par une approche multi-niveaux : application au dépôt de CuO sur Al(111) / Development of an atomistic simulation platform for vapor phase processes using a multi-level approach : application to the deposition of CuO on Al (111)

Guiltat, Mathilde 14 October 2016 (has links)
Cette thèse a pour but d'établir le lien entre la microstructure des matériaux et leurs propriétés macroscopiques qui est un verrou technologique et scientifique important, dans un contexte de conception de matériaux miniaturisés, directement intégrés et aux performances améliorées. Pour permettre le plein essor de ces nouveaux matériaux, des efforts doivent notamment être fournis sur le développement de nouveaux procédés technologiques, capables de déposer la matière avec un contrôle à l'échelle atomique. Ceci ne peut se faire sans un accompagnement théorique pour accéder à une compréhension fondamentale des mécanismes gérant la croissance de ces matériaux. Dans ce contexte, la modélisation prédictive du procédé de dépôt s'avère stratégique pour guider les technologues vers la conception de matériaux nanostructurés avancés. Pour répondre au mieux à cette problématique, les travaux présentés dans cette thèse suivent une approche multi-niveaux. Dans un premier temps, une étude à l'échelle atomique avec des calculs DFT est faite, afin de relever des énergies, des mécanismes et des structures, localement. Ces résultats sont ensuite utilisés comme paramètres d'entrée dans un outil de simulation utilisant la méthodologie Monte Carlo cinétique, développé spécialement au cours de ces travaux. Cet outil permet de simuler des systèmes de plusieurs dizaines de milliers d'atomes sur des temps longs, pour des coûts en calculs faibles. Les résultats obtenus avec cet outil sont directement comparables avec des résultats expérimentaux. Nous avons donc un outil doté d'une granularité à l'échelle atomique équipé d'une plateforme de simulation pour permettre à l'ingénieur une utilisation simple et intuitive de celui-ci. Cet outil se veut prédictif et permettra ainsi au technologue de réaliser des simulations prédictives et par suite de limiter les coûts et les essais en salle blanche. L'objectif est d'établir un lien entre la nanostructuration à l'échelle atomique et le procédé de fabrication, à travers cette plateforme de simulation simple d'utilisation. Ici, nous proposons un modèle basé sur une méthodologie de type Monte Carlo cinétique pour simuler le dépôt PVD de matériaux multicouches Al/CuO. / The aim of this thesis is to link materials microstructure and their macroscopic properties which are a very important technologic and scientific barrier, especially for material miniaturising, directly integrated and with improved specifications. Enabling this new material booming implies efforts in the development of new technological processes able to make mater deposition with atomic scale control. This can't be done without a theoretical support in order to access to a fondamental understanding of material growth mechanisms. In this context, predictive modelling of deposition process is strategic, leading technologists toward advanced nanostructured materials conception. We choose the multi-scale approach to answer this problematic. First, an atomic scale study is done, using DFT, in order to measure local energies, mechanisms and structures. Then, those results are used as input parameters in a home made simulation tool using kinetic Monte Carlo. This tool is able to simulate systems with several tens of thousands atoms, during long simulation time, for low calculation time. The outputs are directly comparable to experimental data. In summary, we obtain an atomic grain texture tool, fitted with simulation platform, for an easy and intuitive use for the engineer. This tool is predictive and allows technologists to make predictive simulations, restricting cost and test in clean room. The aim is to set up a link between the atomic scale nanostructuration and the fabrication process, toward this user-friendly simulation platform. We suggest a model based on kinetic Monte Carlo, for the PVD deposition simulation of Al/CuO multilayered materials.
49

Load Balancing of Multi-physics Simulation by Multi-criteria Graph Partitioning / Equilibrage de charge pour des simulations multi-physiques par partitionnement multcritères de graphes

Barat, Remi 18 December 2017 (has links)
Les simulations dites multi-physiques couplent plusieurs phases de calcul. Lorsqu’elles sont exécutées en parallèle sur des architectures à mémoire distribuée, la minimisation du temps de restitution nécessite dans la plupart des cas d’équilibrer la charge entre les unités de traitement, pour chaque phase de calcul. En outre, la distribution des données doit minimiser les communications qu’elle induit. Ce problème peut être modélisé comme un problème de partitionnement de graphe multi-critères. On associe à chaque sommet du graphe un vecteur de poids, dont les composantes, appelées « critères », modélisent la charge de calcul porté par le sommet pour chaque phase de calcul. Les arêtes entre les sommets, indiquent des dépendances de données, et peuvent être munies d’un poids reflétant le volume de communication transitant entre les deux sommets. L’objectif est de trouver une partition des sommets équilibrant le poids de chaque partie pour chaque critère, tout en minimisant la somme des poids des arêtes coupées, appelée « coupe ». Le déséquilibre maximum toléré entre les parties est prescrit par l’utilisateur. On cherche alors une partition minimisant la coupe, parmi toutes celles dont le déséquilibre pour chaque critère est inférieur à cette tolérance. Ce problème étant NP-Dur dans le cas général, l’objet de cette thèse est de concevoir et d’implanter des heuristiques permettant de calculer efficacement de tels partitionnements. En effet, les outils actuels renvoient souvent des partitions dont le déséquilibre dépasse la tolérance prescrite. Notre étude de l’espace des solutions, c’est-à-dire l’ensemble des partitions respectant les contraintes d’équilibre, révèle qu’en pratique, cet espace est immense. En outre, nous prouvons dans le cas mono-critère qu’une borne sur les poids normalisés des sommets garantit que l’espace des solutions est non-vide et connexe. Nous fondant sur ces résultats théoriques, nous proposons des améliorations de la méthode multi-niveaux. Les outils existants mettent en oeuvre de nombreuses variations de cette méthode. Par l’étude de leurs codes sources, nous mettons en évidence ces variations et leurs conséquences à la lumière de notre analyse sur l’espace des solutions. Par ailleurs, nous définissons et implantons deux algorithmes de partitionnement initial, se focalisant sur l’obtention d’une solution à partir d’une partition potentiellement déséquilibrée, au moyen de déplacements successifs de sommets. Le premier algorithme effectue un mouvement dès que celui-ci améliore l’équilibre, alors que le second effectue le mouvement réduisant le plus le déséquilibre. Nous présentons une structure de données originale, permettant d’optimiser le choix des sommets à déplacer, et conduisant à des partitions de déséquilibre inférieur en moyenne aux méthodes existantes. Nous décrivons la plate-forme d’expérimentation, appelée Crack, que nous avons conçue afin de comparer les différents algorithmes étudiés. Ces comparaisons sont effectuées en partitionnant un ensembles d’instances comprenant un cas industriel et plusieurs cas fictifs. Nous proposons une méthode de génération de cas réalistes de simulations de type « transport de particules ». Nos résultats démontrent la nécessité de restreindre les poids des sommets lors de la phase de contraction de la méthode multi-niveaux. En outre, nous mettons en évidence l’influence de la stratégie d’ordonnancement des sommets, dépendante de la topologie du graphe, sur l’efficacité de l’algorithme d’appariement « Heavy-Edge Matching » dans cette même phase. Les différents algorithmes que nous étudions sont implantés dans un outil de partitionnement libre appelé Scotch. Au cours de nos expériences, Scotch et Crack renvoient une partition équilibrée à chaque exécution, là où MeTiS, l’outil le plus utilisé actuellement, échoue une grande partie du temps. Qui plus est, la coupe des solutions renvoyées par Scotch et Crack est équivalente ou meilleure que celle renvoyée par MeTiS. / Multiphysics simulation couple several computation phases. When they are run in parallel on memory-distributed architectures, minimizing the simulation time requires in most cases to balance the workload across computation units, for each computation phase. Moreover, the data distribution must minimize the induced communication. This problem can be modeled as a multi-criteria graph partitioning problem. We associate with each vertex of the graph a vector of weights, whose components, called “criteria”, model the workload of the vertex for each computation phase. The edges between vertices indicate data dependencies, and can be given a weight representing the communication volume transferred between the two vertices. The goal is to find a partition of the vertices that both balances the weights of each part for each criterion, and minimizes the “edgecut”, that is, the sum of the weights of the edges cut by the partition. The maximum allowed imbalance is provided by the user, and we search for a partition that minimizes the edgecut, among all the partitions whose imbalance for each criterion is smaller than this threshold. This problem being NP-Hard in the general case, this thesis aims at devising and implementing heuristics that allow us to compute efficiently such partitions. Indeed, existing tools often return partitions whose imbalance is higher than the prescribed tolerance. Our study of the solution space, that is, the set of all the partitions respecting the balance constraints, reveals that, in practice, this space is extremely large. Moreover, we prove in the mono-criterion case that a bound on the normalized vertex weights guarantees the existence of a solution, and the connectivity of the solution space. Based on these theoretical results, we propose improvements of the multilevel algorithm. Existing tools implement many variations of this algorithm. By studying their source code, we emphasize these variations and their consequences, in light of our analysis of the solution space. Furthermore, we define and implement two initial partitioning algorithms, focusing on returning a solution. From a potentially imbalanced partition, they successively move vertices from one part to another. The first algorithm performs any move that reduces the imbalance, while the second performs at each step the move reducing the most the imbalance. We present an original data structure that allows us to optimize the choice of the vertex to move, and leads to partitions of imbalance smaller on average than existing methods. We describe the experimentation framework, named Crack, that we implemented in order to compare the various algorithms at stake. This comparison is performed by partitioning a set of instances including an industrial test case, and several fictitious cases. We define a method for generating realistic weight distributions corresponding to “Particles-in-Cells”-like simulations. Our results demonstrate the necessity to coerce the vertex weights during the coarsening phase of the multilevel algorithm. Moreover, we evidence the impact of the vertex ordering, which should depend on the graph topology, on the efficiency of the “Heavy-Edge” matching scheme. The various algorithms that we consider are implemented in an open- source graph partitioning software called Scotch. In our experiments, Scotch and Crack returned a balanced partition for each execution, whereas MeTiS, the current most used partitioning tool, fails regularly. Additionally, the edgecut of the solutions returned by Scotch and Crack is equivalent or better than the edgecut of the solutions returned by MeTiS.
50

Organizational ambidexterity : a fractal and dynamic case / Ambidextrie organisationnelle : le cas fractal et dynamique

Dymyd, Lesya 21 March 2016 (has links)
Une performance soutenable et importante est l'objectif principal du management de toute organisation. La viabilité d'une entreprise dépend de sa capacité à trouver un équilibre entre deux activités très différentes. D’une part elle doit exploiter les certitudes existantes pour garantir la réussite des opérations courantes et d’autre part explorer de nouvelles opportunités pour la mise en œuvre rapide des nouvelles idées qui garantissent l'avenir de l'organisation. Les organisations ambidextres ont une aptitude à poursuivre de manière simultanée ces activités et produisent des innovation radicales et incrémentielles. Notre recherche montre que pour être ambidextre seulement la séparation des activités n’est pas suffisante. Sans une intégration et une combinaison de ces structures et ces processus, l’unité d’exploration sera incapable d’exploiter ses résultats et a plus de chance disparaitre avec le temps comme la structure inefficace. Pour survivre sur le long terme, l’entreprise doit intégrer l’ambidexterité de manière fractale et dynamique. Ce nouveau concept propose une solution à la question de l’équilibre entre les activités et elle se définit comme la capacité organisationnelle à reproduire l’exploration et l’exploitation simultanément à différents niveaux organisationnels et être capable de changer leurs proportions quand cela est nécessaire / The main objective in management of any organization is a successful and sustainable performance. To survive over time, a company should combine two competing activities. On the one hand, it must exploit existing certainties to be effective in the short term, and on the other hand, being capable at the same time to explore new opportunities to be innovative in the future. Ambidextrous organizations have the ability to pursue these activities simultaneously and produce radical and incremental innovation. In our research, we show that to achieve ambidexterity separation of activities is important, but not sufficient. Without integration between business structures and processes, the exploratory activity of the innovation unit is more likely to shrink and disappear with time as unprofitable function. To survive and sustain in the long term, a company should adapt fractal and dynamic ambidexterity. This new concept provides us with a solution to the question of balance and determines the organizational ability to define and set the appropriate proportions of exploration and exploitation simultaneously at multiple organizational levels and re-configure them when it is necessary to meet the change.

Page generated in 0.0448 seconds