111 |
Évaluation de la fatigue musculaire au moyen de capteurs embarquésMoyen-Sylvestre, Béatrice 10 1900 (has links)
La répétition d’efforts de faible intensité provoque de la fatigue musculaire et représente un
facteur de risque de développement des troubles musculosquelettiques (TMS) à l’épaule. La
détection de la fatigue musculaire permettrait de meilleures interventions de prévention de TMS
liés au travail répétitif. L’objectif de ce mémoire est de développer de nouveaux indicateurs
permettant d’évaluer le mouvement des travailleurs à l’aide de capteurs inertiels portatifs afin
d’offrir un outil d’évaluation du niveau de fatigue employable sur le terrain. Pour ce faire, vingt-quatre
travailleurs ont réalisé une tâche de travail avant et après une tâche de pointage répétitif
(RPT) générant de la fatigue musculaire. La fatigue était évaluée à l’aide de l'échelle CR10 de Borg
toutes les 30s et d’une contraction maximale réalisée toutes les 2 minutes. Des données de
capteurs inertiels, positionnés sur le tronc et les membres supérieurs des travailleurs, ont été
analysées en temps-fréquence et leur coordination inter-segment calculée afin d’extraire des
indicateurs de fatigue. Les résultats montrent une augmentation du spectre de puissance et de la
variabilité de la coordination sur les segments proximaux du haut du corps (tête, sternum, bassin,
épaule, bras, avant-bras et main) pendant la RPT. Aussi, une augmentation du spectre de
puissance moyen a été observée sur les segments du bras (main, avant-bras et bras supérieur)
pendant la tâche de travail réalisée immédiatement après la RPT. En conclusion, il semblerait
possible, en observant de tels changements cinématiques, de détecter la fatigue musculaire des
travailleurs en industrie à l’aide de capteurs inertiels. / The repetition of low-intensity efforts causes muscle fatigue and represents a risk factor for the
development of musculoskeletal disorders (MSD) in the shoulder. The detection of muscle fatigue
would allow for better interventions to prevent MSDs related to repetitive work. The objective of
this dissertation is to develop new indicators to evaluate the movement of workers using portable
inertial sensors to provide a tool for evaluating the level of fatigue that can be used in the field.
To do this, twenty-four workers performed a work task before and after a repetitive pointing task
(RPT) generating muscle fatigue. Fatigue was assessed using the Borg CR10 scale every 30s and a
maximal contraction performed every 2 minutes. Data from inertial sensors, positioned on the
trunk and upper limbs of the workers, were analyzed in time-frequency and their inter-segment
coordination calculated to extract indicators of fatigue. The results show an increase in the power
spectrum and coordination variability on the proximal upper body segments (head, sternum,
pelvis, shoulder, arm, forearm and hand) during RPT. Also, an increase in the average power
spectrum was observed over the arm segments (hand, forearm, and upper arm) during the work
task performed immediately after RPT. In conclusion, it would seem possible, by observing such
changes in kinematics, to detect muscle fatigue in industrial workers using inertial sensors.
|
112 |
Accéléromètre électrostatique à biais corrigé pour le test de la loi de gravitation à l'échelle du Système SolaireLenoir, Benjamin 14 September 2012 (has links) (PDF)
La trajectoire des sondes spatiales, calculée à partir des informations obtenues avec le lien radio, est un outil important pour la conduite des missions spatiales ainsi que pour le test de la loi de gravitation dans le Système Solaire. L'ajout d'un accéléromètre à bord d'une sonde fournit aux scientifiques une information supplémentaire d'un grand intérêt puisqu'il mesure la valeur de l'accélération non-gravitationnelle de la sonde, c'est-à-dire sa déviation par rapport à un mouvement géodésique. Des accéléromètres électrostatiques sont actuellement utilisés sur plusieurs missions de géodésie. Cette thèse est centrée sur le Gravity Advanced Package, un instrument composé d'un accéléromètre électrostatique et d'une platine rotative. Cette évolution technologique permet de faire des mesures d'accélération non-gravitationnelle sans biais. Cela est essentiel pour le succès scientifique d'une mission interplanétaire du point de vue du test de la gravitation. En effet, en mesurant sans biais l'accélération non-gravitationnelle d'une sonde interplanétaire et en utilisant ces mesures dans le processus de restitution d'orbite, il est possible de tester la gravitation de manière non ambiguë. Avec les technologies présentées dans cette thèse, l'accélération non-gravitationnelle d'une sonde spatiale peut être mesurée avec une précision de 1 pm.s^{-2} pour un temps d'intégration de 3 heures. Ces mesures, utilisées conjointement avec les données issues du lien radio, permettent d'obtenir une précision de 10^{-11} m.s^{-2} sur la loi de gravitation avec un arc de 21 jours.
|
113 |
Une approche conceptuelle pour l’interprétation des graphiques en cinématique au secondaireChoquette, Guillaume-Olivier 08 1900 (has links)
Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994).
Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel. / The goal of this study is to determine whether the use of a guided inquiry laboratory (as a teaching complement based on a conceptual approach) will allow secondary five students to better understand kinematics notions than by the use of an expository laboratory. It comes within a series of college and university studies about teaching approaches using laboratories to transmit physics’ concepts in mechanics (McDermott, 1996; Beichner, 1994).
The guided inquiry laboratory approach is associated to a conceptual approach based on qualitative reasoning, whereas the expository laboratory is associated to traditional approach in teaching physics. The Test of Understanding Graphs in Kinematics (TUG-K) (Beichner, 1994) and individual interviews were used to evaluate understanding of kinematics concepts. First of all, the study shows that a guided inquiry approach is an effective method to teach most of kinematics notions. Comparing the results from two groups of 38 students, the study results indicate that a conceptual approach laboratory is better than an expository laboratory for students’ long-term understanding of acceleration notions.
|
114 |
Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiquesNassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul.
Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP.
Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes :
- Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement.
- Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées.
Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised.
In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET.
Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we :
developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions.
developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies.
Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
|
115 |
Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri / Fast Monte Carlo methods for rare event simulation. Applications to Petri netsEstecahandy, Maïder 18 April 2016 (has links)
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel. / The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology.
|
116 |
Acceleration and higher order schemes of a characteristic solver for the solution of the neutron transport equation in 3D axial geometries / Elaboration d'une accélération et d'un schéma d'ordre supérieur pour la résolution de l'équation du transport des neutrons avec la méthode des caractéristiques pour des géométries 3D axialesSciannandrone, Daniele 14 October 2015 (has links)
Le sujet de ce travail de thèse est l’application de la méthode de caractéristiques longues (MOC) pour résoudre l’équation du transport des neutrons pour des géométries à trois dimensions extrudées. Les avantages du MOC sont sa précision et son adaptabilité, le point faible était la quantité de ressources de calcul requises. Ce problème est même plus important pour des géométries à trois dimensions ou le nombre d’inconnues du problème est de l’ordre de la centaine de millions pour des calculs d’assemblage.La première partie de la recherche a été dédiée au développement des techniques optimisées pour le traçage et la reconstruction à-la-volé des trajectoires. Ces méthodes profitent des régularités des géométries extrudées et ont permis une forte réduction de l’empreinte mémoire et une réduction des temps de calcul. La convergence du schéma itératif a été accélérée par un opérateur de transport dégradé (DPN) qui est utilisé pour initialiser les inconnues de l’algorithme itératif and pour la solution du problème synthétique au cours des itérations MOC. Les algorithmes pour la construction et la solution des opérateurs MOC et DPN ont été accélérés en utilisant des méthodes de parallélisation à mémoire partagée qui sont le plus adaptés pour des machines de bureau et pour des clusters de calcul. Une partie importante de cette recherche a été dédiée à l’implémentation des méthodes d’équilibrage la charge pour améliorer l’efficacité du parallélisme. La convergence des formules de quadrature pour des cas 3D extrudé a aussi été explorée. Certaines formules profitent de couts négligeables du traitement des directions azimutales et de la direction verticale pour accélérer l’algorithme. La validation de l’algorithme du MOC a été faite par des comparaisons avec une solution de référence calculée par un solveur Monte Carlo avec traitement continu de l’énergie. Pour cette comparaison on propose un couplage entre le MOC et la méthode des Sous-Groupes pour prendre en compte les effets des résonances des sections efficaces. Le calcul complet d’un assemblage de réacteur rapide avec interface fertile/fissile nécessite 2 heures d’exécution avec des erreurs de quelque pcm par rapport à la solution de référence.On propose aussi une approximation d’ordre supérieur du MOC basée sur une expansion axiale polynomiale du flux dans chaque maille. Cette méthode permet une réduction du nombre de mailles (et d’inconnues) tout en gardant la même précision.Toutes les méthodes développées dans ce travail de thèse ont été implémentées dans la version APOLLO3 du solveur de transport TDT. / The topic of our research is the application of the Method of Long Characteristics (MOC) to solve the Neutron Transport Equation in three-dimensional axial geometries. The strength of the MOC is in its precision and versatility. As a drawback, it requires a large amount of computational resources. This problem is even more severe in three-dimensional geometries, for which unknowns reach the order of tens of billions for assembly-level calculations.The first part of the research has dealt with the development of optimized tracking and reconstruction techniques which take advantage of the regularities of three-dimensional axial geometries. These methods have allowed a strong reduction of the memory requirements and a reduction of the execution time of the MOC calculation.The convergence of the iterative scheme has been accelerated with a lower-order transport operator (DPN) which is used for the initialization of the solution and for solving the synthetic problem during MOC iterations.The algorithms for the construction and solution of the MOC and DPN operators have been accelerated by using shared-memory parallel paradigms which are more suitable for standard desktop working stations. An important part of this research has been devoted to the implementation of scheduling techniques to improve the parallel efficiency.The convergence of the angular quadrature formula for three-dimensional cases is also studied. Some of these formulas take advantage of the reduced computational costs of the treatment of planar directions and the vertical direction to speed up the algorithm.The verification of the MOC solver has been done by comparing results with continuous-in-energy Monte Carlo calculations. For this purpose a coupling of the 3D MOC solver with the Subgroup method is proposed to take into account the effects of cross sections resonances. The full calculation of a FBR assembly requires about 2 hours of execution time with differences of few PCM with respect to the reference results.We also propose a higher order scheme of the MOC solver based on an axial polynomial expansion of the unknown within each mesh. This method allows the reduction of the meshes (and unknowns) by keeping the same precision.All the methods developed in this thesis have been implemented in the APOLLO3 version of the neutron transport solver TDT.
|
117 |
Etude expérimentale de l'interaction d'un laser Terawatt avec un plasma sous-dense:<br /> production d'une source brillante et courte d'électrons relativistesFaure, Jérôme 21 September 2001 (has links) (PDF)
Cette thèse constitue une étude experimentale qui s'inscrit dans le cadre de l'interaction laser-plasma en régime relativiste. Le couplage du laser au plasma provoque l'apparition de nombreux phénomènes nonlinéaires tels que l'autofocalisation relativiste, les instabilités Raman, l'excitation et le déferlement d'ondes plasma. Dans ce régime dit du ``sillage automodulé'', ces effets se combinent et aboutissent à l'accélération des électrons du plasma à des vitesses relativistes. Dans une première partie, les effets nonlinéaires ont d'abord été étudiés. Une méthode originale utilisant des impulsions laser à dérive de fréquence a permis de mesurer la dynamique temporelle des instabilités Raman. Les résultats ont montré que l'instabilité Raman arrière a lieu sur le front montant de l'impulsion et que le Raman avant est plutôt situé en queue d'impulsion. L'autofocalisation a également été étudiée à l'aide d'un diagnostic d'ombroscopie. Les résultats ont montré que la puissance n'est pas le seul paramètre régissant l'autofocalisation: la durée de l'impulsion laser doit être comparée au temps de mouvement des particules dans le plasma: $\omega_p^{-1}$ pour les électrons et $\omega_{pi}^{-1}$ pour les ions. En particulier, lorsque la durée d'impulsion est trop courte, l'autofocalisation relativiste n'a pas lieu. Dans une deuxième partie, on discute de la production d'une source d'électrons relativistes (0 à 70 MeV) à partir d'un laser à 10 Hz (35 fs, 600 mJ). Cette source d'électrons brillante ($10^{10}$ électrons), à spectre Maxwellien et potentiellement courte (<100 fs) a été caractérisée et elle est donc disponible pour les applications. Finalement, la troisième partie décrit des expériences préparant l'accélération d'électrons à des énergies de l'ordre du GeV. En particulier, on a détaillé le guidage d'une impulsion Terawatt dans un canal de plasma, ainsi que la création de plasmas centimétriques dans des jets de gaz rectangulaires et supersoniques.
|
118 |
Accélération Non Adiabatique des Ions causée par des Ondes électromagnétiques (Observations de Cluster et Double Star) et réponse du champ géomagnétique aux variations de la pression dynamique du vent solaireWang, Zhiqiang 19 February 2013 (has links) (PDF)
Cette thèse comporte deux thèmes principaux: l'un concerne l'accélération non adiabatique des ions dans la couche de plasma proche de la Terre, l'autre les pulsations géomagnétiques dues à la décroissance de la pression dynamique du vent solaire. L'accélération nonadiabatique des ions de la couche de plasma est importante pour comprendre la formation du courant annulaire et les injections énergétiques des sous-orages. Dans la première partie de cette thèse, nous présentons des études de cas d'accélération non adiabatique des ions de la couche de plasma observés par Cluster et TC-1 Double Star dans la queue magnétique proche de la Terre (par exemple à (X,Y, Z)=(-7.7, 4.6, 3.0) RT lors de l'évènement du 30 octobre 2006), beaucoup plus près de la Terre que ceux qui avaient été précédemment observés. Nous trouvons que les variations du flux d'énergie des ions, qui sont caractérisées par une décroissance entre 10 eV et 20 keV et une augmentation entre 28 keV et 70 keV, sont causées par l'accélération non adiabatique des ions associée étroitement avec les fortes fluctuations du champ électromagnétique autour de la gyrofréquence des ions H+. Nous trouvons aussi que les ions après l'accélération non adiabatique sont groupés en phase de gyration et c'est la première fois que ceci est trouvé dans la couche de plasma alors que cet effet a été observé dans le vent solaire dans les années 1980. Nous interprétons les variations de flux d'énergie des ions et les groupements en phase de gyration en utilisant un modèle non adiabatique. Les résultats analytiques et les spectres simulés sont en bon accord avec les observations. Cette analyse suggère que cette acceleration nonadiabatique associée aves les fluctuations du cham magnétique est un mécanisme efficace pour l'accélération des ions dans la couche de plasma proche de la Terre. Les structures de flux d'énergie présentées peuvent être uilisées comme un proxy pour identifier ce processus dynamique. Dans le deuxième thème, nous étudions la réponse du champ géomagnétique à une impulsion de la pression dynamique (Psw) du vent solaire qui a atteint la magnétosphère le 24 août 2005. En utilisant les données du champ géomagnétique à haute résolution fournies par 15 stations au sol et les données des satellites Geotail, TC-1 et TC-2, nous avons étudié les pulsations géomagnétiques aux latitudes aurorales dues à la décroissance brusque de Psw dans la limite arrière de l'impulsion. Les résultats montrent que la décroissance brutale de Psw peut exciter une pulsation globale dans la gamme de fréquence 4.3-11.6 mHz. L'inversion des polarisations entre deux stations des latitudes aurorales, la densité spectrale de puissance (PSD) plus grande près de la latitude de résonance et la fréquence augmentant avec la diminution de la latitude indiquent que les pulsations sont associées avec la résonance des lignes de champ (FLR). La fréquence résonante fondamentale (la fréquence du pic de PSD entre 4.3-5.8 mHz) dépend du temps magnétique local et est maximale autour du midi local magnétique. Cette caractéristique est due au fait que la dimension de la cavité magnétosphérique dépend du temps et est minimale à midi. Une onde harmonique est aussi observée à environ 10 mHz, qui est maximale dans le secteur jour, et est fortement atténuée lorsque on va vers le coté nuit. La comparaison entre les PSDs des pulsations provoquées pas l'augmentation brutale et la décroissance brutale de Psw montre que la fréquence des pulsations est inversement proportionnelle à la dimension de la magnétopause. Puisque la résonance des lignes de champ (FLR) est excitée par des ondes cavité compressée/guide d'onde, ces résultats indiquent que la fréquence de résonance dans la cavité magnétosphérique/guide d'onde est due non seulement aux paramètres du vent solaire mais est aussi influencée par le temps magnétique local du point d'observation.
|
119 |
Une approche conceptuelle pour l’interprétation des graphiques en cinématique au secondaireChoquette, Guillaume-Olivier 08 1900 (has links)
Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994).
Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel. / The goal of this study is to determine whether the use of a guided inquiry laboratory (as a teaching complement based on a conceptual approach) will allow secondary five students to better understand kinematics notions than by the use of an expository laboratory. It comes within a series of college and university studies about teaching approaches using laboratories to transmit physics’ concepts in mechanics (McDermott, 1996; Beichner, 1994).
The guided inquiry laboratory approach is associated to a conceptual approach based on qualitative reasoning, whereas the expository laboratory is associated to traditional approach in teaching physics. The Test of Understanding Graphs in Kinematics (TUG-K) (Beichner, 1994) and individual interviews were used to evaluate understanding of kinematics concepts. First of all, the study shows that a guided inquiry approach is an effective method to teach most of kinematics notions. Comparing the results from two groups of 38 students, the study results indicate that a conceptual approach laboratory is better than an expository laboratory for students’ long-term understanding of acceleration notions.
|
120 |
Analyse statistique de l'impact de la poussière et de l'émission radio des amas de galaxiesLanoux, Joseph 13 June 2012 (has links) (PDF)
La gravitation est le principal moteur de formation et d'évolution des amas de galaxies. Cependant, de nombreux processus non-gravitationnels sont à l'oeuvre au sein de la composante baryonique des amas et affectent leurs propriétés globales. L'objet de cette thèse est l'étude statistique de deux de ces processus et de leur impact sur la formation et l'évolution des amas de galaxies. Nous nous sommes intéressés à l'effet de la présence de poussière dans le milieu intra-amas, ainsi qu'à l'origine de l'émission radio observée dans la direction des amas. Un refroidissement du gaz intra-amas dû à la poussière a tout d'abord été implémenté dans des simulations numériques de formation des structures. Nous avons ensuite quantifié l'impact de la poussière sur les propriétés d'échelle et structurelles des amas de galaxies générés dans ces simulations. Notre analyse a montré que la normalisation des relations d'échelle et la distribution de matière au centre des amas sont significativement modifiées par l'inclusion de poussière. Cette dernière peut donc affecter l'évolution des propriétés du milieu intra-amas. Nous avons aussi montré que le refroidissement est intimement lié aux propriétés physiques de la poussière, c'est-à-dire à son abondance et à la distribution en taille de ses grains. L'émission radio des amas de galaxies est quant à elle due aux sources ponctuelles (noyaux actifs de galaxies, galaxies à flambée d'étoile) et aux sources étendues et diffuses (halos, reliques). À partir du relevé radio NVSS et du méta-catalogue MCXC, nous avons statistiquement étudié les relations d'échelle entre les propriétés des galaxies actives en radio (fraction, luminosité radio, masse du trou noir supermassif des noyaux actifs) et celles des halos qui les hébergent (masse totale, luminosité X). Nous avons montré que les propriétés de ces deux populations sont corrélées. Finalement, en s'appuyant sur la caractérisation de l'émission des sources ponctuelles et sur les données NVSS, nous avons recherché la signature statistique d'une émission radio étendue et diffuse dans les amas. Cependant, cette investigation a rapidement été entravée par la contamination due aux sources radio ponctuelles non-résolues. Notre étude nous a également renvoyés à la question de la fraction d'amas hébergeant des sources radio étendues et diffuses, et donc à leur lien avec l'état dynamique des amas.
|
Page generated in 0.1061 seconds