• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 43
  • 20
  • 1
  • Tagged with
  • 178
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 19
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse génomique en médecine de précision : Optimisations et outils de visualisation / Genomic Analysis within Precision Medicine : Optimizations and visualization tools

Commo, Frederic 24 November 2015 (has links)
Un nouveau paradigme tente de s’imposer en oncologie ; identifier les anomalies moléculaires dans la tumeur d’un patient, et proposer une thérapie ciblée, en relation avec ces altérations moléculaires. Nous discutons ici des altérations moléculaires considérées pour une orientation thérapeutique, ainsi que de leurs méthodes d’identification : parmi les altérations recherchées, les anomalies de nombre de copies tiennent une place importante, et nous nous concentrons plus précisément sur leur identification par hybridation génomique comparative (aCGH). Nous montrons, d’abord à partir de lignées cellulaires caractérisées, que l’analyse du nombre de copies par aCGH n’est pas triviale et qu’en particulier le choix de la centralisation peut être déterminant ; différentes stratégies de centralisation peuvent conduire à des profils génomiques différents, certains aboutissant à des interprétations erronées. Nous montrons ensuite, à partir de cohortes de patients, qu’une conséquence majeure est de retenir ou non certaines altérations actionnables dans la prise de décision thérapeutique. Ce travail nous a conduit à développer un workflow complet dédié à l’analyse aCGH, capable de prendre en charge les sources de données les plus courantes. Ce workflow intègre les solutions discutées, assure une entière traçabilité des analyses, et apporte une aide à l’interprétation des profils grâce à des solutions interactives de visualisation. Ce workflow, dénommé rCH, a été implémenté sous forme d’un package R, et déposé sur le site Bioconductor. Les solutions de visualisation interactives sont disponibles en ligne. Le code de l’application est disponible pour une installation sur un serveur institutionnel. / In oncology, a new paradigm tries to impose itself ; analyzing patient’s tumors, and identifying molecular alterations matching with targeted therapies to guide a personalized therapeutic orientation. Here, We discuss the molecular alterations possibly relevant for a therapeutic orientation, as well as the methods used for their identification : among the alterations of interest, copy number variations are widely used, and we more specifically focus on comparative genomic hybridization (aCGH). We show, using well characterized cell lines, that identification of CNV is not trivial. In particular, the choice for centralizing profiles can be critical, and different strategies for adjusting profiles on a theoretical 2n baseline can lead to erroneous interpretations. Next, we show, using tumor samples, that a major consequence is to include, or miss, targetable alterations within the decision procedure. This work lead us to develop a comprehensive workflow, dedicated to aCGH analysis. This workflow supports the major aCGH platforms, ensure a full traceability of the entire process and provides interactive visualization tools to assist the interpretation. This workflow, called rCGH, has been implemented as a R package, and is available on Bioconductor. The interactive visualization tools are available on line, and are ready to be installed on any institutional server.
42

Conditions de validité de l'Élastographie par Résonance Magnétique / Conditions of validity of Magnetic Resonance Elastography

Julea, Felicia 14 March 2018 (has links)
L'élastographie par résonance magnétique (ERM) est une technique d'imagerie, reconnue comme une méthode pertinente pour la caractérisation mécanique des tissus humains in vivo. Celle-ci représente un intérêt fondamental en diagnostic clinique car le développement d'un processus pathologique s'accompagne la plupart du temps d'altérations des propriétés mécaniques des tissus atteints. L'ERM consiste à enregistrer le champ de déplacement induit au passage d'une onde de cisaillement généré dans le milieu étudié. Les paramètres mécaniques comme la vitesse, v, et les modules de viscoélasticité de cisaillement, G' et G'', peuvent être cartographiés. La quantification des paramètres mécaniques dépend à la fois de la fréquence mécanique, fexc, de la taille de voxel, a, de l'amplitude des champs de déplacement induits, A, de l'amplitude du rotationnel du champ de déplacement, q, des erreurs de mesure, ΔA et Δq, donc du rapport signal à bruit, RSB, et enfin de la méthode de reconstruction. En inversant les équations différentielles du champ de déplacement acquis selon les trois dimensions de l'espace, ces paramètres ont été considérés pour déterminer la précision et l'exactitude des modules mécaniques obtenus et établir les conditions de validité de l'ERM. Dans cette thèse, nous avons tout d'abord considéré A et A/ΔA afin de définir un premier seuil de validité pour l'ERM. Nous avons étudié l'influence de ces deux paramètres sur un fantôme hétérogène dans un appareil IRM 1,5 T avec deux types d'antennes. Dans une première étude, les champs de déplacement ont été acquis en fonction de A en utilisant deux séquences écho de spin (RFE) et écho de gradient (FFE) sensibilisées au mouvement pour une taille de voxel isotrope de 1 mm. Dans une seconde étude, ils ont été acquis en RFE en fonction de A pour trois résolutions spatiales différentes. Ces études ont révélé l'existence d'un seuil en A/ΔA au-delà duquel les paramètres extraits (G', G'') atteignent un plateau et l'ERM est fiable. Nous avons ensuite considéré le nombre de voxel par longueur d'onde, λ/a, comme paramètre déterminant des conditions de validité de l'ERM et nous avons caractérisé la qualité des données acquises par le rapport q/Δq. Sur des simulaitons dans un milieu élastique, homogène et isotrope avec un RSB variant entre 5 et 30, la précision et l'exactitude des mesures se sont avérées optimales pour 6 à 9 voxels par longueur d'onde. Nous avons reproduit expérimentalement à 2 kHz les conditions des siimulations sur un fantôme de PVA. Les champs de déplacement ont été acquis à 11,7 T en utilisant une séquence RFE sensibilisée au mouvement pour des résolutions spatiales de 150 μm à 300 μm afin de balayer le rapport λ/a de 1 à 20. Les résultats expérimentaux confirment pleinement les prédictions de la simulation. La vitesse de cisaillement diminue et tend vers la vitesse de référence attendue lorsque l'acquisition est réalisée dans le domaine optimal, à savoir ici lorsque a est inférieure ou égale à 200 μm. En outre la dispersion de la vitesse est réduite dans le domaine optimal et des estimations plus précises des paramètres mécaniques ont pu être déduites. Cette thèse montre d'une part que la précision et l'exactitude de l'ERM sont optimales lorsque les acquisitions sont réalisées ou traitées pour un domaine d'échantillonnage de la longueur d'onde déterminé par le RSB. Elle montre d'autre part que la comparaison des résultats obtenus doit être menée dans une gamme similaire de q/Δq. La prise en compte des conditions de validité de l'ERM, déterminées par les rapports λ/a et q/Δq, conduit à une mesure quantitative effective des paramètres mécaniques. Il est ainsi possible d'envisager un diagnostic clinique pertinent au sein d'un même organe, d'un même sujet, entre sujets ou au cours du temps. / Magnetic Resonance Elastography (MRE) is a imaging technique, recognized as a pertinent method for the mechanical characterization of human tissue in vivo. It offersa particular interest in clinical diagnosis because the development of a pathological process is often accompanied by modifications of the mechanical properties of diseased tissues. MRE consists of recording, along the three spatial dimensions, the displacement field induced by the propagation of a shear wave generated by excitation of the investigated tissue. Mechanical parameters such as shear wave velocity, v, and shear moduli, G' and G'', can then be mapped. The quantification of the mechanical parameters depends on the frequency of the mechanical excitation, fexc, the spatial resolution, a, the amplitude of the induced displacement field, A and the amplitude of the curl field displacement, q, with associated measurement errors, ΔA and Δq, (related to the signal-to-noise ratio, SNR) and finally the reconstruction method. All these parameters were considered to determine the precision and the accuracy of the estimated mechanical moduli and to establish the conditions of validity of MRE following the inversion of the differential equations of the displacement field. In this work, first A and A/ΔA were considered to define a validity threshold for MRE. The influence of A and A/ΔA was studied on a heterogeneous phantom acquired using a 1.5 T MRI with two different types of coils. In a first study, the displacement fields were acquired as a function of A using motion-sensitized spin-echo (REF) and gradient-echo (FFE) sequences for an isotropic spatial resolution of 1 mm. In a second study, the displacement field was acquired as a function of A using RFE for three different spatial resolutions. These studies revealed the existence of a threshold in A/ΔA beyond which the extracted parameters (G', G'') reach a plateau and the MRE is reliable. Then the number of voxels per wavelength, λ/a was considered as a parameter determining the conditions of validity of MRE. This parameter was studied according to the quality of the acquired data characterized by the ratio q//Δq. Simulations were carried in a homogeneous and isotropic elastic medium with a SNR between 5 and 30. The accuracy and the precision of the measurements were found optimal for 6 to 9 voxels per wavelength. The simulation conditions were experimentally reproduced at 2 kHz on a home-made polyvinyl alcohol phantom. The displacement fields were acquired at 11.7 T using a motion-sensitized RFE sequence with spatial resolutions ranging from 150 μm to 300 μm in order to obtain a λ/a ratio ranging from 1 to 20. The experimental results fully confirm the predictions of the simulation. The shear wave velocity decreases with λ/a. It tends towards the expected reference value when the acquisition is performed in the optimal condition, namely here when a is less than or equal to 200 μm. In addition, the standard deviation of the shear wave velocity is reduced for the optimal conditions. Therefore, accurate estimation of mechanical parameters could be deduced. This thesis first demonstrates that the precision and accuracy of MRE are optimal when the acquisitions are performed or processed for a certain wavelength sampling range determined by the SNR. We also showed that for fair comparison of the results, MRE must be carried out in a similar range of q/Δq. Taking into account the conditions of validity of MRE, determined by the ratios λ/a and q/Δq, leads to an effective quantitative measurement of the mechanical parameters making it possible to establish a relevant clinical diagnosis within the same organ, the same subject, between subjects or over time.
43

Participation des personnes racisées à la recherche en génomique au Canada : une analyse critique du processus de racialisation

Omeranovic, Arian 05 August 2024 (has links)
Le manque de diversité des données génomiques empêche les chercheur.e.s d'étudier les associations entre les profils génétiques, la présentation des maladies et la réponse aux thérapies innovantes. Ces innovations pourraient donc avoir des conséquences néfastes pour une partie importante de la population en raison d'informations génomiques inexactes et incomplètes. Parallèlement à ce phénomène, on assiste également à une réintroduction du concept de race dans les études en génomique, ce qui semble poser un problème éthique et scientifique quant à la manière de catégoriser les populations étudiées. Comprendre les déterminants du manque de diversité dans la recherche en génomique est donc un impératif scientifique, clinique et social. La plupart des recherches sur ce sujet ont été menées à l'extérieur du Canada et les résultats peuvent ne pas être généralisables en raison des différences sociales et structurelles entre les pays. À la lumière des théories postcoloniales, l'objectif de ce projet est donc de parvenir à une compréhension des facteurs propres au contexte canadien qui influencent la participation des personnes racisées dans la recherche en génomique à partir de la perspective des chercheur.e.s dans le domaine. Au total, 13 entrevues semi-dirigées ont été menées auprès d'une population adulte ayant mené des recherches dans le domaine de la génomique au Canada et pouvant communiquer en français ou en anglais. Le corpus de données a ensuite fait l'objet d'une analyse thématique. Nos résultats ont montré que la faible participation des personnes racisées pouvait s'expliquer en partie par le découpage géographique des institutions de recherche et la mésadaptation des recherches par rapport aux populations recherchées. Pour pallier cette situation, une rupture avec les pratiques coloniales du milieu de la recherche scientifique et un plus grand engagement des communautés étudiées seraient nécessaires. En outre, les politiques ÉDI ne semblent pas être suffisantes pour répondre à ce même problème. Finalement, il semble exister un lien entre la manière de catégoriser les populations étudiées et la participation qui démontre une nécessité d'engager une discussion plus large sur la catégorisation dans le milieu de la recherche en génomique. / The lack of diversity in genomic data prevents researchers from studying associations between genetic profiles, disease presentation and response to innovative therapies. These innovations could therefore have harmful consequences for a significant proportion of the population due to inaccurate and incomplete genomic information. Parallel tothis phenomenon, we are also witnessing a reintroduction of the concept of race in genomic studies, which raises ethical and scientific questions about how to categorize the populations studied. Understanding the determinants of the lack of diversity in genomics research is therefore a scientific, clinical and political imperative. Most research on this subject has been conducted outside Canada, and results may not be generalizable due to social and structural differences between countries. In light of postcolonial theories, the aim of this project is to gain an understanding of the factors specific to the Canadian context that influence the participation of racialized people in genomics research, from the perspective of researchers in the field. A total of 13 semi-structured interviews were conducted with an adult population having conducted genomics research in Canada, and able to communicate in French or English. The corpus of data was then subjected to thematic analysis. Our results showed that the low participation of racialized people could be explained in part by the geographic breakdown of research institutions and the mismatch between research and the target populations. To remedy this situation, it would be necessary to break with the colonial practices of the scientific research community and to increase the commitment with the communities studied. In addition, DEI policies do not seem to be sufficient to address the same problem. Finally, there appears to be a link between the way in which study populations are categorized and participation, demonstrating a need for a broader discussion of categorization in the genomics research community.
44

Identification de marqueurs protéomiques liés à la réponse positive induite par l'entraînement physique observée chez la population atteinte de dystrophie myotonique de type 1

Aoussim, Amira 23 January 2024 (has links)
La dystrophie myotonique de type 1 (DM1) est la myopathie la plus courante chez les adultes. Il s'agit d'une maladie multisystémique touchant donc plusieurs systèmes tels que les systèmes nerveux, cardiaque, digestif, endocrinien, et notamment le muscle squelettique, sur lequel les présents travaux se concentrent. En effet, dans le contexte de cette maladie le muscle squelettique est gravement affaibli : les personnes atteintes souffrent d'atrophie musculaire et subissent une perte progressive de la force musculaire maximale. Pour contrer ces déficiences, le renforcement musculaire est une stratégie thérapeutique prometteuse. L'exercice est sécuritaire et efficace pour augmenter la force musculaire en DM1, mais pour l'instant, les mécanismes biologiques sous-jacents demeurent inconnus. L'étude pilote des travaux présentés dans ce mémoire a montré des gains importants de la force musculaire et de la capacité fonctionnelle chez 11 hommes atteints de DM1 qui ont participé à un programme d'entraînement musculaire supervisé de 12 semaines. Dans le cadre de cette maitrise, afin d'identifier les mécanismes sous-jacents impliqués dans ces gains cliniques, des échantillons musculaires collectés chez les participants avant et après l'entraînement ont été étudiés. L'analyse protéomique a démontré que plusieurs fonctions moléculaires et processus biologiques ont été améliorés par le programme d'entraînement. Plus précisément, la modulation du protéome par l'exercice était liée au métabolisme énergétique, à la myogenèse, l'immunité, la contraction musculaire, la signalisation de l'insuline et l'apoptose. Ces résultats suggèrent que l'adaptation musculaire est possible en DM1 aux niveaux cliniques et biologiques. Finalement, l'identification de biomarqueurs musculaires par la protéomique pourrait permettre de jeter les bases de la médecine de précision afin d'améliorer les soins thérapeutiques à venir en DM1. / Myotonic dystrophy type 1 (DM1) is the most common myopathy in adults. It is a multisystemic disease affecting several systems such as the nervous, cardiac, digestive, endocrine systems, and in particular the skeletal muscle, on which my work focuses. Indeed, the skeletal muscle is severely weakened: affected individuals suffer from muscle atrophy and experience a progressive loss of maximum muscle strength. To counter these deficiencies, muscle strengthening is a promising therapeutic strategy. Exercise is safe and effective to increase muscle strength in DM1 but for now, the underlying biological mechanisms remain unknown. The pilot study of the works here presented showed significant gains in muscle strength and functional capacity of 11 men with DM1 who participated in a 12-week supervised strength training program. To identify the underlying mechanisms involved in these clinical gains, muscle samples collected from participants before and after training were studied. Proteomics analysis showed that several molecular functions and biological processes were improved by the training program. Specifically, the modulation of the proteome through exercise was related to energy metabolism, myogenesis, immunity, muscle contraction, insulin signaling, and apoptosis. These results suggest that muscle adaptation is possible in DM1 at the clinical and biological levels. Finally, the identification of muscle biomarkers by proteomics could lay the foundations of precision medicine to improve future therapeutic treatments in DM1.
45

Comparaison de la puissance statistique et de la valeur entre les stratégies adaptatives de traitement et les stratégies partiellement adaptatives de traitement

Magassouba, Mamady 13 December 2023 (has links)
La médecine personnalisée est un domaine en pleine croissance, qui met l'accent sur l'utilisation de l'historique des informations individuelles des patients afin d'optimiser des stratégies de traitement adaptées à chaque patient ou groupe de patients ayant les mêmes caractéristiques. Plusieurs méthodes d'estimation dites de stratégies de traitement adaptatives (ATS) existent, telles que les méthodes Q-learning, DWOLS et G-estimation. Ces méthodes nécessitent des interactions entre toutes les caractéristiques pertinentes des patients et le traitement pour produire des estimations non biaisées. En pratique, il n'est pas toujours désirable d'établir des règles de décisions adaptatives dépendant de plusieurs variables. De nouvelles méthodes d'estimation plus réalistes, appelées méthodes de stratégies de traitement partiellement adaptatives (PATS) ont été conçues, par exemple la méthode CE-DWOLS. Elles permettent de personnaliser les décisions de traitements à l'aide d'un sous-ensemble de caractéristiques des patients. Notre objectif est de savoir s'il y a un intérêt statistique à utiliser les PATS. Pour cela, nous comparons la puissance statistique et la valeur entre les méthodes Q-learning et DWOLS des ATS et la méthode CE-DWOLS des PATS. Plus précisément, des études de simulations ont été effectuées considérant neuf scénarios produisant chacun 1000 réplications de la puissance et la valeur de ces méthodes d'estimation. Les résultats de nos simulations montrent que la méthode CE-DWOLS des PATS bénéficie d'une plus grande puissance statistique à détecter des termes d'interaction covariable-traitement que les méthodes Q-learning et DWOLS des ATS. Par contre, la valeur des PATS optimales estimées par la méthode CE-DWOLS est en moyenne inférieure à celles des ATS optimales estimées avec les méthodes Q-learning et DWOLS. Les valeurs des PATS optimales sont aussi plus variables que celles des ATS. Enfin, une application sur des données réelles issues de la banque de données du cancer du sein du Centre des Maladies du Sein (CSM) a été réalisée. Il en ressort qu'en ce qui concerne la puissance, la méthode Q-learning des ATS performe mieux que les méthodes DWOLS des ATS et CE-DWOLS des PATS. Quant à la variabilité de la valeur, la méthode CE-DWOLS des PATS montre une plus grande variabilité par rapport aux méthodes des ATS. En conclusion, les résultats de notre étude indiquent que les bénéfices d'utiliser les PATS plutôt que les ATS sont variables, à la fois en termes de puissance statistique que de valeur des stratégies optimales estimées. / Personalized medicine is a growing field that focuses on using individual patient information history to optimize treatment strategies tailored to each patient or group of patients with the same characteristics. Several so-called adaptive treatment strategy (ATS) estimation methods exist, such as Q-learning, DWOLS, and G-estimation methods. These methods require interactions between all relevant patient characteristics and treatment to produce unbiased estimates. In practice, it is not always desirable to establish adaptive decision rules that depend on multiple variables. New, more realistic estimation methods, called partially adaptive treatment strategies (PATS) methods, have been developed, for example the CE-DWOLS method. These methods allow treatment decisions to be personalized using a subset of patient characteristics. Our objective is to find out whether there is statistical value in using PATS. To do so, we compare the statistical power and value between the Q-learning and DWOLS methods of ATS and the CE-DWOLS method of PATS. Specifically, simulation studies were performed considering nine scenarios each producing 1000 replications of the power and value of these estimation methods. Our simulation results show that the PATS CE-DWOLS method enjoys greater statistical power in detecting covariate-treatment interaction terms than the Q-learning and DWOLS methods of ATS. On the other hand, the value of optimal PATS estimated by the CE-DWOLS method is on average lower than those of optimal ATS estimated with the Q-learning and DWOLS methods. The values of the optimal PATS are also more variable than those of the ATS. Finally, an application on real data from the breast cancer database of the Breast Disease Center (BDC) was performed. It was found that with respect to power, the ATS Q-learning method performed better than the ATS DWOLS and PATS CE-DWOLS methods. As for the variability of the value, the PATS CE-DWOLS method shows greater variability compared to the ATS methods. In conclusion, the results of our study indicate that the benefits of using PATS rather than ATSs are variable, both in terms of statistical power and the value of the estimated optimal strategies.
46

Approche individualisée en stimulation cérébrale non-invasive au stade chronique post-avc ; : effets sur la fonction manuelle et la plasticité cérébrale

Champagne, Pier-Luc 12 November 2023 (has links)
L'accident vasculaire cérébral (AVC) est une cause importante d'invalidité dans le monde. Parmi les déficiences sensorimotrices de l'AVC, l'hémiparésie spastique est la plus fréquente au membre supérieur et engendre une perte de force et de dextérité qui limite les activités quotidiennes des personnes atteintes. La stimulation magnétique transcrânienne (TMS) est un outil permettant d'étudier le fonctionnement cérébral après un AVC, plus particulièrement en termes de réorganisation bihémisphérique et la TMS répétée (rTMS) est une approche utilisée pour influencer la plasticité cérébrale. Étant donné l'hétérogénéité des lésions, les récents modèles de récupération post-AVC suggèrent que les interventions de neurostimulation non invasive soient adaptées à la lésion, plus particulièrement à la présence ou l'absence de substrat fonctionnel de l'hémisphère lésé (HL), appelé réserve structurale (RS). Le présent projet visait à déterminer si l'individualisation de l'approche en rTMS permettait d'induire une plasticité préférentielle selon la présence ou l'absence d'une RS. La première étude vérifiait d'abord les différences de fonctionnement neurophysiologiques entre les participants avec RS, sans RS et contrôles. La deuxième étude investiguait la plasticité induite par trois protocoles de rTMS (inhibiteur, excitateur et placebo) appliqués sur le M1 non-lésé et a montré que l'intégrité de l'hémisphère lésé avait un impact sur les effets induits et devrait donc être prise en compte pour le choix d'un protocole appliqué à plus long terme. La troisième étude avait comme objectif d'individualiser une approche en neurostimulation pour l'amélioration de la fonction du membre supérieur chez un participant au stade chronique post-AVC. Cette dernière étude a montré que l'inhibition de l'hémisphère non-lésé par rTMS induisait une plasticité à l'origine d'améliorations motrices dans le cas où il y a suffisamment de tissu fonctionnel du côté lésé. / Stroke is a major cause of disability worldwide. Among the sensorimotor impairments following a stroke, spastic hemiparesis is the most common in the upper limb and results in a loss of strength and dexterity that limits the daily life of those affected. Transcranial magnetic stimulation (TMS) is used to study brain function after a stroke, specifically in terms of bihemispheric reorganization, and repeated TMS (rTMS) is an approach used to influence brain plasticity. Given the heterogeneity of lesions, recent models of post-stroke recovery suggest that noninvasive brain stimulation (NIBS) should be tailored to the lesion, specifically to the functional substrate in the lesioned hemisphere, called structural reserve (SR). The present project aimed to determine whether individualizing rTMS approach would induce preferential plasticity according to the presence or absence of SR in the lesioned hemisphere. The first study tested the neurophysiological differences between participants with and without SR as well as in control subjects. The second study investigated the plasticity induced by three rTMS protocols (inhibitory, excitatory and sham) applied on the unlesioned M1 and showed that the integrity of the injured hemisphere had an impact on the effects induced and should therefore be taken into account for the choice of a long-term intervention. The third study aimed to individualize a rTMS approach for the improvement of upper limb function in a chronic post-stroke participant. This last study showed that inhibition of the unlesioned hemisphere by rTMS induced plasticity leading to motor improvements in presence of functional tissue in the lesioned hemisphere (SR).
47

INTERFÉROMÉTRIE ATOMIQUE : Construction, caractérisation et optimisation d'un interféromètre Application aux mesures de précision

Büchner, Matthias 25 May 2010 (has links) (PDF)
Ce manuscrit décrit les travaux d'interférométrie atomique que j'ai réalisés. Je commence par présenter quelques interféromètres atomiques et leurs applications, afin de situer nos travaux. Puis je décris l'interféromètre atomique que nous avons développé à Toulouse. Il s'agit d'un interféromètre de Mach-Zehnder, utilisant un jet thermique supersonique de lithium et la diffraction atomique par laser dans le régime de Bragg. Les deux bras de l'interféromètre sont séparés spatialement, avec une distance maximale voisine de 100 ¹. Les excellentes performances, avec une visibilité des franges atomiques atteignant 84.5 % et un signal intense, mènent à une sensibilité en phase de 15 mrad/ p Hz. Nous avons utilisé cet interféromètre pour plusieurs expériences, en appliquant une perturbation sur un seul des deux bras de l'interféromètre. Si la perturbation est un champ électrique, nous mesurons la polarisabilité électrique du lithium, avec une incertitude 3 fois plus petite que la meilleure mesure antérieure. Si la perturbation est un gaz sous faible pression, nous mesurons l'indice de réfraction complexe de ce gaz pour une onde atomique de lithium. Si la perturbation est un nanoréseau, nous mesurons l'amplitude complexe de diffraction dans l'ordre zéro et cette amplitude est très sensible à l'interaction de van der Waals entre l'atome de lithium et la surface du réseau. Une partie importante de ce manuscrit concerne les perspectives. Nous discutons des améliorations pour la mesure de la polarisabilité électrique de l'atome de lithium et nous espérons atteindre une précision suffisante pour tester les meilleurs calculs ab initio de cette quantité. Une autre application envisagée concerne une mise en évidence d'une nouvelle phase géométrique, prédite par la théorie en 1993, mais jamais observée jusqu'à présent. Enfin, nous souhaitons développer un interféromètre de deuxième génération, avec un jet de lithium ralenti et très intense. Cette nouvelle source augmentera le signal produit et le temps d'interaction, ce qui devrait permettre de détecter des perturbations beaucoup plus petites: une application particulièrement intéressante de ce nouvel interféromètre atomique est le test de la neutralité électrique des atomes, avec une sensibilité fortement améliorée.
48

Banc d’essai pour caractérisation en conditions réelles extérieures de modules en concentration photovoltaïque

Larkin, Dominic January 2017 (has links)
Face aux sources d’énergie épuisables et polluantes, la production d’électricité par énergie solaire à concentration photovoltaïque (CPV) connaît depuis 2010 une croissance significative. Les systèmes ayant les plus hauts rendements (< 29%) sont constitués de trackers à deux axes combinés à des modules à modules (CPV) allant de 300x à 2500x, intégrant des cellules PV à triple jonction, dont l’efficacité mesurée en laboratoire est supérieure à 35%. Les pertes des systèmes sont dues aux conditions de fonctionnement extérieures fluctuantes, parmi lesquelles : la température, le contenu spectral du flux lumineux, la taille variable du disque solaire et la précision du suivi soumis à des limites physiques et des charges de vents variables. L’industrie tente de pallier à ces difficultés par des dispositifs à concentrations optique à angle d’acceptance (AA) large. Mais la caractérisation en laboratoire de tout dispositif doit être complétée par des tests en conditions externes. Ce projet consiste en la conception et la réalisation d’un banc d’essai extérieur de caractérisation de modules CPV, sous conditions réelles et variables, au moyen de tests I-V. Les données sont archivées sur une base de données, et prétraitées pour analyses des résultats. Les objectifs de caractérisation ont été atteints, soit le positionnement ponctuel précis en azimut et en élévation lors d’un test I-V, la répétition de cette étape selon des protocoles ajustables. Six dispositifs CPV à large AA ont été caractérisés en même temps (plus de 146 000 lectures). Des suggestions sont faites pour corriger les problèmes rencontrés. Des questions de recherches ultérieures sont posées, l’ensemble confirmant la pertinence de ce type de banc d’essai.
49

Proposition d'une méthode d'alignement de l'accélérateur linéaire CLIC : des réseaux de géodésie au pré-alignement actif / Proposal of an alignment method of the CLIC linear accelerator : from geodetic networks to the active pre-alignment

Touze, Thomas 11 January 2011 (has links)
Le compact linear collider (CLIC) est le projet de collisionneur de particules proposé par l'organisation européenne pour la recherche nucléaire (CERN) visant à succéder au large hadron collider (LHC). Du fait des dimensions nanométriques des faisceaux de leptons de ce projet, les accroissements admissibles de l'émittance sont extrêmement faibles. Cela a pour conséquence des tolérances d'alignement des composants du CLIC jamais atteintes. La dernière étape de l'alignement sera effectuée par rapport au faisceau de particules du CLIC. Elle est du ressort des physiciens du faisceau. Toutefois son implémentation nécessite un pré-alignement qui lui-même représente un défi métrologique et géodésique : atteindre 10 μm à 3σ le long d'une fenêtre coulissante de 200 m. Un tel niveau de précision requiert le développement d'une méthode compatible avec des systèmes de repositionnement qui seront constamment sollicités. Le pré-alignement du CLIC devra être actif. Cette thèse ne démontre pas la faisabilité du pré-alignement actif du CLIC mais montre le chemin des derniers développements à effectuer dans ce but. Il y est proposé une méthode, fondée sur la gestion des similitudes entre systèmes euclidiens de coordonnées, qui, de la géodésie aux mesures métrologiques, est susceptible d'apporter la solution. Des expériences sur de longues distances ont été construites dans le but d'éprouver, en parallèle de simulations de Monte-Carlo, les modèles mathématiques des systèmes de mesure et des références d'alignement ainsi créés. L'extrapolation de ces modèles, une fois validés expérimentalement, sur toute la longueur du CLIC, sera la dernière étape prouvant la faisabilité du pré-alignement / The compact linear collider (CLIC) is the particles accelerator project proposed by the european organization for nuclear research (CERN) for high energy physics after the large hadron collider (LHC). Because of the nanometric scale of the CLIC leptons beams, the emittance growth budgetis very tight. It induces alignment tolerances on the positions of the CLICcomponents that have never been achieved. The last step of the CLIC alignment will be done according to the beam itself. It falls within the competence of the physicists. However, in order to implement the beam-based feedback, a challenging pre-alignment is required: 10 μm at 3σ along a 200 m sliding window. For such a precision, the proposed solution must be compatible with a feedback between the measurement and repositioning systems. The CLIC pre-alignment will have to be active. This thesis does not demonstrate the feasibility of the CLIC active prealignment but shows the way to the last developments that have to be done for that purpose. A method is proposed. Based on the management of the Helmert transformations between Euclidian coordinate systems, from the geodetic networks to the metrological measurements, this method is likely to solve the CLIC pre-alignment problem. Large scale facilities have been built and Monte-Carlo simulations have been made in order to validate the mathematical modelings of the measurement systems and of the alignment references. When this is done, it will be possible to extrapolate the modelings to the entire CLIC length. It will be the last step of the demonstration of the CLIC pre-alignment feasibility
50

Architecture de communication pour les réseaux d’instrumentation sans fil / Communication architecture for wireless sensors networks

Albu, Roxana 11 July 2011 (has links)
Aujourd'hui les réseaux de capteurs sont devenus des systèmes pouvant atteindre un très grand nombre de noeuds, avec une zone de couverture déterminée et déployés d'une manière plus ou moins dense dans un environnement hétérogène dont on mesure ainsi son état global. La problématique de cette thèse consiste à concevoir une architecture pour les objets communicants à faible consommation en utilisant des antennes « intelligentes » pour l'instrumentation et la mesure. Intégrant une approche pluridisciplinaire, cette architecture couvre les services offerts depuis les couches MAC jusqu'à celles de plus haut niveau. Basés sur une partie matérielle complètement reconfigurable (amplificateur de puissance et antennes à base de MEMS RF), les services des couches supérieures sont définis en partie sur circuits numériques pour la couche physique (bande de base) et la couche MAC, et de manière logicielle pour les protocoles de routages adaptés et les services innovants. En résumé, le travail consiste à concevoir un système autonome multi capteurs, d'acquisition et de traitement avec mémorisation, communicant à travers un réseau sans fil. Les principaux problèmes à résoudre seront : le contrôle de la topologie, la précision de la synchronisation, la consommation d'énergie. / Researches in the field of sensor networks show the variety and vastness of applications in which these types of systems are used. One of their main features is the large number (up to hundreds of elements) of sensors that must be distributed in different environments. Another concern consists in making routing decisions in order to reduce the energy consumption. Depending on the application requirements, ensuring synchronous network functionality is currently a challenge. The issue addressed in this thesis is to develop an architecture for smart objects using low-power antennas for structural heald monitoring. Integrating a multidisciplinary approach, this architecture includes services from the MAC layer to those of the highest level. In summary, we will develop an autonomous system ofi sensors, for acquisition and information processing, which communicate via a wireless network. The main problems are: the control of topology, the timing accuracy and the energy consumption.

Page generated in 0.0588 seconds