• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 57
  • 18
  • Tagged with
  • 202
  • 131
  • 68
  • 62
  • 36
  • 31
  • 31
  • 30
  • 29
  • 26
  • 25
  • 25
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Mesure de la section efficace de production des hadrons lourds avec le spectromètre à muons d'ALICE au LHC

Manceau, Loïc 01 October 2010 (has links) (PDF)
Les calculs de chromodynamique quantique sur réseau prévoient, que pour un potentiel baryonique nul et une température de T ∼ 173 MeV , il devrait être possible d'observer une transition de la phase de la matière hadronique vers un plasma de quarks et de gluons. Les collisions d'ions lourds ultra-relativistes devraient permettre de mettre en évidence ce changement de phase. Les saveurs lourdes peuvent être utilisées pour sonder les premiers instants des collisions pendant lesquels la température est la plus élevée. Le LHC va permettre d'étudier les collisions entre noyaux de plomb et les collisions entre protons à une énergie jamais égalée : √s = 5.5 TeV (√sNN = 14 TeV ) pour le plomb (les protons). Le détecteur ALICE est dédié à l'étude des collisions d'ions lourds mais peut également mesurer les collisions entre protons. Il est équipé d'un spectromètre à muons conçu pour l'étude des saveurs lourdes. Cette thèse présente les performances du spectromètre pour la mesure de la section efficace de production inclusive des hadrons beaux (B) et charmés (D) dans les collisions proton-proton. La première étape de cette mesure consiste à extraire les distributions des muons de décroissance des hadrons B et D. L'étape suivante consiste à extrapoler les distributions aux sections efficaces de production inclusive des hadrons. Cette thèse contient également une étude préliminaire des performances du spectromètre pour la mesure du rapport de modification nucléaire et de l'observable associée nommée RB=D dans les collisions plomb-plomb de centralité0−10%. L'accent est porté sur les incertitudes et l'intervalle en impulsion transverse sur lequel ces observables pourront être mesurées.
182

MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION

Bompard, Manuel 06 December 2011 (has links) (PDF)
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
183

Propriétés optiques de nano-structures métalliques et semi-conductrices

Bachelier, Guillaume 24 October 2004 (has links) (PDF)
La spectrométrie Raman, mettant en jeu des phonons de longueur d'onde nanométrique, est une technique de choix pour l'étude des nanostructures. Elle met en évidence les effets de localisation ou de mélange des états électroniques. La cohérence spatiale des modes de vibration, à l'origine du phénomène d'interférence Raman, permet quant à elle de sonder de la structuration spatiale de la matière, tant d'un point de vue électronique qu'acoustique, ouvrant ainsi la voie vers des dispositifs de caractérisation intégrés. La spécificité de l'approche développée dans ce manuscrit réside dans la comparaison entre mesures et calculs de la section efficace de diffusion Raman. Elle apporte une compréhension quantitative des fréquences mais aussi des intensités des pics mesurés. Ainsi, cette démarche a permis d'identifier un nouveau mécanisme de couplage phonon-plasmon qui s'est avéré être le mécanisme dominant la diffusion Raman basses fréquences dans les nano-particules métalliques.
184

Contributions numériques en compatibilité électromagnétique impulsionnelle. Paradigme pour la caractérisation temporelle d'équipements / Numerical contribution in impulsive electromagnetic compatibility. Paradigm for temporal characterization of equipments

Baba, Ibrahim El 28 March 2012 (has links)
Le travail présenté dans cette thèse concerne la mise en oeuvre numérique de techniques temporelles pour des applications en compatibilité électromagnétique (CEM) impulsionnelle, essentiellement pour des études en chambre réverbérante à brassage de modes (CRBM). Prenant le contre-pied des approches fréquentielles, adaptées par nature aux études de cavités résonantes, l’idée directrice de ce mémoire a été d’étudier des moyens temporels originaux d’investigation de CRBM en vue de proposer de nouveaux paradigmes pour la caractérisation d’équipements. Originellement développé en acoustique, le processus de retournement temporel (RT) récemment appliqué aux ondes électromagnétiques permet une focalisation spatiale et temporelle de ces dernières d’autant meilleur que le milieu de propagation est réverbérant. Les chambres réverbérantes (CR) sont ainsi des endroits idéaux pour l’application du processus de RT. Après une nécessaire étude des nombreux paramètres qui gouvernent ce dernier couplée à la définition de méthodologies numériques spécifiques, les applications du RT en CRBM sont exposées. En particulier, l’intérêt d’une focalisation sélective pour des tests en susceptibilité rayonnée est démontré. L’importance des coefficients d’absorption et de diffraction des équipements en CRBM justifie leur caractérisation précise et efficace. À cette fin, la mise en oeuvre d’un calcul temporel de section efficace totale de diffraction (TSCS en anglais) est détaillée. L’application de cette nouvelle technique à différentes formes de brasseurs de modes permet au final de confronter ces résultats avec ceux obtenus à l’aide de tests normatifs CEM. / The work presented in this thesis concerns the use of time techniques for impulsive ElectroMagnetic Compatibility (EMC) applications, mainly for Modes Stirred Reverberation Chamber (MSRC) studies. Contrary to approaches from frequency domain, obviously well-fitted for studies in resonant cavities, the main idea of this thesis was to study an original time method for MSRC investigation to propose new paradigms for equipment characterization. Originally developed in acoustics, the Time Reversal (TR) process recently applied to electromagnetic waves allows focusing it both in time and space. The process quality is even higher if the propagation environment is reverberant. Thus, the Reverberation Chambers (RC) are an ideal locations for TR implementation. After a study of parameters involved in the TR process coupled with the definition of specific numerical methods, the applications of TR in MSRC are exposed. In particular, the interest of selective focusing for radiated susceptibility tests is demonstrated. The importance of absorption and diffraction coefficients for MSRC equipment justifies their accurate and efficient characterization. To this end, the implementation of a temporal calculation of the Total Scattering Cross Section (TSCS) in RC is detailed. The application of this new technique to different forms of stirrers allows finally to face these results with those obtained from standard EMC test.
185

Analyse de structures à dimension stochastique élevée : application aux toitures bois sous sollicitation sismique / Analysis of structures with high stochastic dimension : application to wooden roofs under seismic loading

Riahi, Hassen 08 April 2013 (has links)
Le problème de la dimension stochastique élevée est récurrent dans les analyses probabilistes des structures. Il correspond à l’augmentation exponentielle du nombre d’évaluations du modèle mécanique lorsque le nombre de paramètres incertains est élevé. Afin de pallier cette difficulté, nous avons proposé dans cette thèse, une approche à deux étapes. La première consiste à déterminer la dimension stochastique efficace, en se basant sur une hiérarchisation des paramètres incertains en utilisant les méthodes de criblage. Une fois les paramètres prépondérants sur la variabilité de la réponse du modèle identifiés, ils sont modélisés par des variables aléatoires et le reste des paramètres est fixé à leurs valeurs moyennes respectives, dans le calcul stochastique proprement dit. Cette tâche fut la deuxième étape de l’approche proposée, dans laquelle la méthode de décomposition de la dimension est utilisée pour caractériser l’aléa de la réponse du modèle, par l’estimation des moments statistiques et la construction de la densité de probabilité. Cette approche permet d’économiser jusqu’à 90% du temps de calcul demandé par les méthodes de calcul stochastique classiques. Elle est ensuite utilisée dans l’évaluation de l’intégrité d’une toiture à ossature bois d’une habitation individuelle installée sur un site d’aléa sismique fort. Dans ce contexte, l’analyse du comportement de la structure est basée sur un modèle éléments finis, dans lequel les assemblages en bois sont modélisés par une loi anisotrope avec hystérésis et l’action sismique est représentée par huit accélérogrammes naturels fournis par le BRGM. Ces accélérogrammes permettent de représenter différents types de sols selon en se référant à la classification de l’Eurocode 8. La défaillance de la toiture est définie par l’atteinte de l’endommagement, enregistré dans les assemblages situés sur les éléments de contreventement et les éléments d’anti-flambement, d’un niveau critique fixé à l’aide des résultats des essais. Des analyses déterministes du modèle éléments finis ont montré que la toiture résiste à l’aléa sismique de la ville du Moule en Guadeloupe. Les analyses probabilistes ont montré que parmi les 134 variables aléatoires représentant l’aléa dans le comportement non linéaire des assemblages, 15 seulement contribuent effectivement à la variabilité de la réponse mécanique ce qui a permis de réduire la dimension stochastique dans le calcul des moments statistiques. En s’appuyant sur les estimations de la moyenne et de l’écart-type on a montré que la variabilité de l’endommagement dans les assemblages situés dans les éléments de contreventement est plus importante que celle de l’endommagement sur les assemblages situés sur les éléments d’anti-flambement. De plus, elle est plus significative pour les signaux les plus nocifs sur la structure. / The problem of the curse of dimensionality is frequently encountered in practical applications. It can be defined as the significant increase of the number of mechanical model calls with the number of uncertain parameters. To overcome this difficulty, a two-steps stochastic approach has been developed in this work. The first step of this approach consists in calculating the stochastic effective dimension by the means of Morris screening method. Once the most significant uncertain parameters on the variability of the mechanical responses are identified, they are modeled as random variables and the remaining parameters are fixed to their respective mean values. This allows us to reduce significantly the stochastic dimension of the problem in the second step of the approach where the decomposition method is used to estimate the statistical characteristics of the mechanical responses. The efficiency and the accuracy of this approach are evaluated through an academic problem dealing with the assessment of the integrity of a three-span five-story frame structure subjected to horizontal loads. We have demonstrate that we can reduce about 90% of the computation time required by the classical stochastic methods. Then, the proposed approach is used to the analysis of the integrity of timber roofs under seismic loading. The behaviour of this structure is described through a finite element model where the timber joints are modeled by anisotropic hysteresis law, and the seismic action is represented by eight real earthquake ground motion records. These accelerograms provided by the French institution involved in geosciences BRGM allow us to take into account different soil types according to the classification provided by the europeen design code dealing with seismic events Eurocode 8. The failure of timber roofs is reached when the damage levels in the timbers joints localized on the buckling and bracing members reach the critical value. It is shown, through a deterministic analysis, that the structure resists the seismic hazard representing the city of Le Moule in Guadeloupe. The stochastic analysis has shown that, among the 134 random variables representing the uncertainty in the nonlinear behaviour of the timber joints, only 15 have a significant effect on the variability of the structural response, which allow us to reduce the stochastic dimension in the computation of the statistical moments. According to the estimates of the mean and the standard deviation, we have shown that the variability of bracing members damage is greater than the variability of buckling members damage. Moreover, the variability of the bracing members damage is more significant for the earthquake ground motion records having the lowest collapse PGA.
186

Application de la spectrométrie de masse COINTOF à l'étude de la dissociation de petits agrégats d'eau protonés par collision sur un atome d'argon : développement d'une cible de nano-gouttes de gaz rare / Collision induced dissociation of protaned water clusters studies with the COINTOF mass spectrometry technique : development of a target of rare gas droplets

Buridon, Victor 13 December 2013 (has links)
L'étude de l'irradiation dans le système moléculaire à l'échelle du nanomètre est un domaine d'investigation innovant des sciences des radiations. Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu en vue les conséquences de l'irradiation dans des petits systèmes moléculaires modèles comme les agrégats d'eau protonés. L'irradiation provoque la fragmentation en plusieurs fragments neutres ou chargés. La technique de spectrométrie de masse COINTOF (Correlated Ion and Neutral Time of Flight) permet la détection corrélées des fragments neutres et chargés issus de la dissociation d'un système moléculaire préalablement sélectionné en masse et en vitesse. Les données collectées sont traitées et structurées pour permettre l'analyse statistique des corrélations sur un grand nombre d'événements de fragmentation. Parallèlement à l'identification des canaux de fragmentation, la technique COINTOF permet la mesure de leur rapport de branchement et de leur section efficace. La méthode est présentée pour la dissociation induite par collision sur un atome d'argon, d'agrégats d'eau protonés H+(H2O)n:[2;7], accélérés à 8keV. L'efficacité de détection, information déterminante pour la production de données quantitatives, est mesurée à partir des données et étudiée en fonction de la distribution l'amplitude des signaux de détection. Enfin, un nouveau système de cible constituée de nanogouttes de gaz rares a été développé / The study of irradiation in molecular systems at the nanometer scale is an innovative field of research in radiation sciences. The DIAM set-up (Dispositif d'Irradiation d'Agrégats Moléculaires) is designed in order to observe and to characterize the consequences of radiation action on model molecular nanosystems such as protonated water clusters. Irradiation induces the fragmentation of the nanosystem in several neutral and charged fragments. The COINTOF (Correlated Ion and Neutral fragments Time of Flight) mass spectrometry techniques allows the correlated detection of the neutral and charged fragments resulting from the dissociation of a mass and velocity selected molecular system. The data processing is performed before the statistical analysis of the fragment production over a large number of fragmentation events. In parallel with the fragmentation channel identification, branching ratio and cross sections are measured with the COINTOF technique. The method is presented here for the collision induced dissociation on argon atoms of protonated water clusters H+(H2O)n, n=2-7, accelerated at 8keV. The detection efficiency, key parameter for the production of quantitative results, is measured from the set of data itself and studied as a function of the amplitude distribution of the detection signal. Finally, a new set-up for production of rare-gas nanodroplets target has been developed
187

Spectrométrie gamma au laboratoire et in situ : développements et applications environnementales / Gamma-ray spectrometry laboratory and in situ : developments and environmental applications

Gasser, Estelle 08 April 2014 (has links)
La spectrométrie γ dose en une seule mesure tous les émetteurs γ dans un échantillon. L’auto-absorption des rayonnements γ dans des échantillons se manifeste par des pertes ou des gains d'impulsions. Pour caractériser une nouvelle géométrie de comptage, des améliorations du dispositif existant ont été apportées par des simulations MCNPX. Avec ce nouveau dispositif nous avons pu spécifier les doses absorbées et efficaces annuelles ainsi que les facteurs de conversion de dose des radioisotopes naturels pour des matériaux de construction et des prélèvements de sols. Des simulations ont montré l’influence des seuils de détection des rayonnements γ donc sur les facteurs de conversion de dose et la nécessité d’une mise à jour de ces facteurs. L’analyse par spectrométrie γ in situ du sol fait appel à des efficacités de détection simulées par MCNPX pour une source aux dimensions semi-infinies. Une application a été réalisée autour d’une centrale nucléaire et une autre pour une société. / Γ-ray spectrometry enables determining all γ-ray emitters in a sample with a single measurement. Self-absorption of γ-rays in samples is manifest by a loss or a gain of pulses that results in a poor estimation of the counting efficiency. To characterize a new counting geometry improvements of the existing set-up were made with MCNPX simulations. With the new geometry we could specify absorbed and annual effective doses as well as dose conversion factors for the natural radioisotopes of several building materials and soil samples. Simulations show the influence of detection limits of γ-radiation on dose conversion factors and the need for updating these factors. γ-ray measurements of soil in situ require different counting efficiencies simulated by MCNPX for a semi-infinite source. Two in-situ soil analyses were made, one around a nuclear power and the other for a private company.
188

System Profiling and Green Capabilities for Large Scale and Distributed Infrastructures / Profilage système et leviers verts pour les infrastructures distribuées à grande échelle

Tsafack Chetsa, Ghislain Landry 03 December 2013 (has links)
De nos jours, réduire la consommation énergétique des infrastructures de calcul à grande échelle est devenu un véritable challenge aussi bien dans le monde académique qu’industriel. Ceci est justifié par les nombreux efforts visant à réduire la consommation énergétique de ceux-ci. Ces efforts peuvent sans nuire à la généralité être divisés en deux groupes : les approches matérielles et les approches logicielles.Contrairement aux approches matérielles, les approches logicielles connaissent très peu de succès à cause de leurs complexités. En effet, elles se focalisent sur les applications et requièrent souvent une très bonne compréhension des solutions proposées et/ou de l’application considérée. Ce fait restreint leur utilisation à un nombre limité d’experts puisqu’en général les utilisateurs n’ont pas les compétences nécessaires à leurs implémentation. Aussi, les solutions actuelles en plus de leurs complexités de déploiement ne prennent en compte que le processeur alors que les composants tel que la mémoire, le stockage et le réseau sont eux aussi de gros consommateurs d’énergie. Cette thèse propose une méthodologie de réduction de la consommation énergétique des infrastructures de calcul à grande échelle. Elaborée en trois étapes à savoir : (i) détection de phases, (ii) caractérisation de phases détectées et (iii) identification de phases et reconfiguration du système ; elle s’abstrait de toute application en se focalisant sur l’infrastructure dont elle analyse le comportement au cours de son fonctionnement afin de prendre des décisions de reconfiguration.La méthodologie proposée est implémentée et évaluée sur des grappes de calcul à haute performance de tailles variées par le biais de MREEF (Multi-Resource Energy Efficient Framework). MREEF implémente la méthodologie de réduction énergétique de manière à permettre aux utilisateurs d’implémenter leurs propres mécanismes de reconfiguration du système en fonction des besoins. Les résultats expérimentaux montrent que la méthodologie proposée réduit la consommation énergétique de 24% pour seulement une perte de performance de moins de 7%. Ils montrent aussi que pour réduire la consommation énergétique des systèmes, on peut s’appuyer sur les sous-systèmes tels que les sous-systèmes de stockage et de communication. Nos validations montrent que notre méthodologie s’étend facilement à un grand nombre de grappes de calcul sensibles à l’énergie (energy aware). L’extension de MREEF dans les environnements virtualisés tel que le cloud montre que la méthodologie proposée peut être utilisée dans beaucoup d’autres environnements de calcul. / Nowadays, reducing the energy consumption of large scale and distributed infrastructures has truly become a challenge for both industry and academia. This is corroborated by the many efforts aiming to reduce the energy consumption of those systems. Initiatives for reducing the energy consumption of large scale and distributed infrastructures can without loss of generality be broken into hardware and software initiatives.Unlike their hardware counterpart, software solutions to the energy reduction problem in large scale and distributed infrastructures hardly result in real deployments. At the one hand, this can be justified by the fact that they are application oriented. At the other hand, their failure can be attributed to their complex nature which often requires vast technical knowledge behind proposed solutions and/or thorough understanding of applications at hand. This restricts their use to a limited number of experts, because users usually lack adequate skills. In addition, although subsystems including the memory are becoming more and more power hungry, current software energy reduction techniques fail to take them into account. This thesis proposes a methodology for reducing the energy consumption of large scale and distributed infrastructures. Broken into three steps known as (i) phase identification, (ii) phase characterization, and (iii) phase identification and system reconfiguration; our methodology abstracts away from any individual applications as it focuses on the infrastructure, which it analyses the runtime behaviour and takes reconfiguration decisions accordingly.The proposed methodology is implemented and evaluated in high performance computing (HPC) clusters of varied sizes through a Multi-Resource Energy Efficient Framework (MREEF). MREEF implements the proposed energy reduction methodology so as to leave users with the choice of implementing their own system reconfiguration decisions depending on their needs. Experimental results show that our methodology reduces the energy consumption of the overall infrastructure of up to 24% with less than 7% performance degradation. By taking into account all subsystems, our experiments demonstrate that the energy reduction problem in large scale and distributed infrastructures can benefit from more than “the traditional” processor frequency scaling. Experiments in clusters of varied sizes demonstrate that MREEF and therefore our methodology can easily be extended to a large number of energy aware clusters. The extension of MREEF to virtualized environments like cloud shows that the proposed methodology goes beyond HPC systems and can be used in many other computing environments.
189

Dynamical study of diatomics: applications to astrochemistry, quantum control and quantum computing / Etude dynamique de molécules diatomiques: applications en astrochimie, en contrôle quantique et en quantum computing

Vranckx, Stéphane 20 August 2014 (has links)
In this work, we theoretically study the properties of diatomic molecular systems, their dynamics, and the control thereof through the use of laser fields. We more specifically study three compounds:<p>1) HeH+, a species of great astrochemical importance which is thought to be the first molecular species to have formed in the universe;<p>2) CO2+, a metastable dication of particular interest in quantum control experiments due to its long-lived lowest vibrational level;<p>3) 41K87Rb, a polar molecule that can be formed at very low temperature and trapped, making it a good candidate for quantum computing schemes.<p>First, we use ab initio methods to compute accurate potential energy curves for the lowest singlet and triplet states of HeH+ as well as the potential energy curves, transition dipole moments and nonadiabatic radial couplings of the ground 3Π state of CO2+ and of its 11 lowest 3Σ- states.<p>In a second step, we use this ab initio data to compute the photodissociation and radiative association cross sections for the a and b 3Σ+ states of HeH+, as well as the values of the corresponding rate constants for astrophysical environments. The photodissociation cross sections from the lowest vibrational level of CO2+ is also determined.<p>Going one step further, we optimize laser control fields that drive the photodissociation dynamics of HeH+ and CO2+ towards specific channels. We compare two field optimization methods: a Møller operator-based Local Control approach and Optimal Control Theory. In both cases, we add a constraint that minimizes the area of the optimized fields.<p>Finally, we focus on one of the potential applications of high-fidelity laser control: the use of small molecular systems as quantum computers. We more specifically study the potential implementation of both intra- and intermolecular logic gates on data encoded in hyperfine states of trapped ultracold polar 41K87Rb molecules, opening interesting perspectives in terms of extensibility.<p>/<p>Dans cette thèse, nous étudions théoriquement les propriétés de molécules diatomiques, leur dynamique de réaction ainsi que le contrôle de cette dynamique à l'aide de champs laser. Notre travail porte plus spécifiquement sur trois espèces :<p>1) HeH+, un composé-clé en astrochimie considéré comme la première espèce moléculaire qui s'est formée dans l'univers ;<p>2) CO2+, un dication métastable qui se prête bien à des expériences de contrôle quantique en raison du relativement long temps de vie de son état vibrationnel le plus bas ;<p>3) 41K87Rb, une molécule polaire qui présente la particularité de pouvoir être formée à très basse température et piégée, ce qui en fait un bon support physique potentiel pour la réalisation d'un ordinateur quantique moléculaire. <p>Nous utilisons tout d'abord des méthodes de calcul ab initio afin d'obtenir les courbes d'énergie potentielle des premiers états singulets et triplets de HeH+ avec un haut de degré de précision, ainsi que les courbes d'énergie potentielle, les moments dipolaires de transition et les couplages non-adiabatiques radiaux de l'état fondamental 3Π de CO2+ et de ses 11 premiers états 3Σ-.<p>Ensuite, nous utilisons ces données ab initio pour calculer les sections efficaces de photodissociation et d'association radiative des états a et b 3Σ+ de HeH+, ainsi que les constantes cinétiques associées à ces processus dans les conditions rencontrées dans des environnements astrophysiques. Les sections efficaces de photodissociation du niveau vibrationnel le plus bas de CO2+ sont également calculées. <p>Nous allons ensuite un cran plus loin en optimisant des champs laser qui guident la dynamique de photodissociation de HeH+ et CO2+ vers des canaux de dissociation spécifiques. Nous comparons deux méthodes d'optimisation de ces champs: une approche de contrôle local basée sur les opérateurs de Møller et la théorie du contrôle optimal. Dans le deux cas, nous incluons une contrainte qui minimise l'aire des champs. <p>Enfin, nous nous concentrons sur l'une des applications possibles du contrôle laser à haute fidélité :l'utilisation de petits systèmes moléculaires comme ordinateurs quantiques. Nous étudions plus spécifiquement l'implémentation possible d'opérations logiques intra- et intermoléculaires sur des données encodées dans des états hyperfins de molécules de 41K87Rb piégées, ce qui ouvre des perspectives intéressantes en terme d'extensibilité. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
190

Evaluation de l'efficacité des établissements d'enseignement secondaire: analyse des indicateurs favorisant la plus-value pédagogique des établissements :étude réalisée en République Démocratique du Congo

Tukanda Manya, Daniel 11 May 2010 (has links)
La présente étude examine la problématique de la variation des perfor-mances scolaires des élèves dans les établissements secondaires. Son but est de rechercher les caractéristiques des écoles « efficaces » et « équitables ».<p><p>Compte tenu des distorsions importantes dans les conclusions des recherches « processus-produits » qui décrivent les relations entre les facteurs investis(inputs) et le produit (output) dans le domaine de l’éducation et au regard de la littérature interna-tionale mettant en relief une multitude de variables(macro et micro-sociologiques) qui semblent influencer la réussite scolaire des élèves, nous avons tenu à mettre en évidence dans le contexte de l’enseignement en RDC certaines variables d’ordre scolaire pouvant amener les écoles à la réalisation de la plus-value pédagogique.<p><p>Ces dernières décennies, il y a certes une prolifération des établissements d’enseignement jamais existée dans le système éducatif congolais. Mais, ce qui est frappant et étonnant dans ce système éducatif aujourd’hui est le fait de la différence de niveau très remarquable entre élèves de même profil fréquentant les établissements scolaires différents. Leurs élèves soumis à des tests standards, on constate que certains d’entre ces établissements réalisent la plus-value pédagogique alors que d’autres réalisent la moins-value.<p><p>Quelles sont les variables d’ordre scolaire pouvant expliquer cette différence de rendement ?Telle est la question principale à laquelle cette étude tente d’apporter quelques éléments de réponse. Face à cette question, l’hypothèse générale que nous avons émise est qu’il existe un « effet-établissement » qui influence les acquisitions de tous les profils d’élèves en classe.<p><p>Ce travail s’articule sur deux parties principales emboîtées. La première partie explore quelques théories sur la réussite ou l’échec scolaire des élèves et examine les résultats de quelques études empiriques mettant en relief les effets relatifs de scolarisation. La deuxième partie est consacrée à la description de la démarche méthodologique de notre recherche et à l’analyse des résultats des élèves à nos tests de français et de mathématique. Elle est aussi consacrée à l’analyse des réactions des enseignants et du personnel de direction scolaire à notre questionnaire relatif aux facteurs prioritaires sur lesquels on peut à l’instant porter en tout premier lieu une attention particulière afin d’améliorer le rendement scolaire. <p><p>Par une analyse des résultats de 605 élèves de dix-huit établissements de l'enseignement secondaire ayant passé nos tests et aussi par une analyse des réponses à notre questionnaire auquel 122 enseignants et 49 personnel ( conseillers, proviseurs et chefs d’établissement ) de direction des établissements concernés par cette étude ont réagi, nous avons tenté de mettre en évidence certaines caractéristiques scolaires pouvant entraîner la réalisation de la plus et/ou moins-value pédagogique dans une école. <p><p>D’une manière générale, les résultats de cette étude montrent que la différence de performances des élèves apprenant dans les établissements différents semble être liée à certaines caractéristiques propres aux établissements scolaires et à des pratiques enseignantes. Vu les résultats présentés par les élèves des classes identifiées comme étant « efficaces » et « équitables », les caractéristiques (celles mises en évidence) des écoles organisant ces classes donnent à penser que celles-ci exercent un effet sur les acquisitions des élèves. <p> / Doctorat en Sciences Psychologiques et de l'éducation / info:eu-repo/semantics/nonPublished

Page generated in 0.1631 seconds