Spelling suggestions: "subject:"atténuer""
121 |
Planification territoriale et résilience des villes au lendemain de catastrophes naturelles : regards croisés sur le rétablissement de la Nouvelle-Orléans en Louisiane et de La Baie au SaguenayWells, Stéfanie 07 1900 (has links)
La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles. / A higher rate of catastrophic events has brought societies to set out the conditions of proactive “natural” risk management. As a result, and from an exploratory perspective, we are studying post-disaster recovery planning processes and the importance of the concept of urban resilience in these planning practices as well as the contents and products which stem from it. More specifically, we begin reflecting upon the intelligibility and operationalization of resilience. To do so, we will focus on two significant cases of flooding in North America: New Orleans, Louisiana, and the city of La Baie, Quebec, which were respectively victims of hurricanes Katrina and Rita in 2005 and of torrential rain in 1996. After a brief contextualization of these disasters, of their effects and of the physico-spatial vulnerabilities that they highlighted, we will link pre-disaster institutional logic regarding territorial planning, urban planning, and city risk management. Next, we observe the evolution of these two recovery planning processes as well as their characteristic issues and debates, finishing with a overview of subsequent resiliency changes. The last two chapters demonstrate that the quality of resilience of cities is strongly influenced by political, administrative and legislative culture as well as urban traditions. While they were able to design risk prevention strategies which accept flooding rather than trying to oppose it at all costs, they did not fully grasp all the opportunities that were offered to them.
|
122 |
Quelle place pour les aides aux technologies de réduction d'émissions en présence d'un prix du carbone? Le cas du secteur électriqueLecuyer, Oskar 29 November 2013 (has links) (PDF)
Cette thèse étudie les conditions d'efficacité d'un portefeuille de politiques pour réduire les émissions de gaz à effet de serre du secteur électrique. Il est montré qu'en présence d'incertitude, le prix du carbone issu d'un marché de permis d'émissions peut ne pas entraîner suffisamment de réductions d'émission, justifiant l'ajout d'une politique au marché de permis, par exemple une subvention renouvelable. Dans le cadre d'une transition vers une production électrique décarbonée, l'accumulation du capital électrique génère des effets dynamiques complexes. Il est montré que l'utilisation naïve du signal-prix du carbone ou de critères statiques pour évaluer les investissements peut alors conduire à un sous-investissement en capital vert. L'effet d'une modification à la marge du portefeuille de politiques actuel est également étudié. Il est montré en particulier que si on suppose une seule technologie de production fossile à taux d'émission constant, contrainte par un plafond d'émissions - donc toutes les réductions d'émissions proviennent des renouvelables - augmenter à la marge le tarif d'achat renouvelable réduit le prix de l'électricité perçu par le consommateur, et ce paradoxalement même si la taxe à la consommation nécessaire pour financer le tarif augmente. Cette thèse réalise enfin une évaluation qualitative du portefeuille actuel de politiques climat-énergie en France. Cet examen montre que les multiples défaillances du prix du carbone justifient l'utilisation d'une combinaison de politiques, même si le portefeuille cible varie en fonction des hypothèses sur les trajectoires du prix du carbone.
|
123 |
Spectrum sensing for half and full-duplex interweave cognitive radio systems / Détection de spectre pour les systèmes half et full-duplex radio intelligente entrelacéeNasser, Abbass 17 January 2017 (has links)
En raison de la demande croissante de services de communication sans fil et de la limitation des ressources de spectre, la radio cognitive (CR) a été initialement proposée pour résoudre la pénurie de spectre. CR divise les systèmes transmetteurs-récepteurs de communication en deux catégories : les Utilisateurs Principaux (PU) et les Utilisateurs Secondaires (SU). PU a le droit légal d'utiliser la bande spectrale, tandis que SU est un utilisateur opportuniste qui peut transmettre sur cette bande chaque fois qu'elle est vacante afin d'éviter toute interférence avec le signal de PU. De ce fait, la détection des activités de PU devient une priorité principale pour toute CR.Le Spectrum Sensing devient ainsi une partie importante d’un système CR, qui surveille les transmissions de PU. En effet, le Spectrum Sensing joue un rôle essentiel dans le mécanisme du fonctionnement du CR en localisant les canaux disponibles et, d'autre part, en protégeant les canaux occupés des interférences de la transmission SU. En fait, Spectrum Sensing a gagné beaucoup d'attention au cours de la dernière décennie, et de nombreux algorithmes sont proposés. Concernant la fiabilité de la performance, plusieurs défis comme le faible rapport signal sur bruit, l'incertitude de bruit (NU), la durée de détection du spectre, etc. Cette thèse aborde les défis de la détection du spectre et apporte quelques solutions. De nouveaux détecteurs basés sur la détection des caractéristiques cyclo-stationnaires et la densité spectrale de puissance (PSD) du signal de PU sont présentés. Un algorithme de test de signification de corrélation canonique (CCST) est proposé pour effectuer une détection cyclo-stationnaire. CCST peut détecter la présence des caractéristiques cycliques communes parmi les versions retardées du signal reçu. Ce test peut révéler la présence d'un signal cyclo-stationnaire dans le signal de mélange reçu. Une autre méthode de détection basée sur la PSD cumulative est proposée. En supposant que le bruit est blanc (sa PSD est plate), la PSD cumulative s'approche d'une droite. Cette forme devient non linéaire pour les signaux de télécommunication. Distinguer la forme cumulative PSD peut donc conduire à diagnostiquer l'état du canal.La radio cognitive Full-Duplex (FD-CR) a également été étudiée dans ce manuscrit, où plusieurs défis sont analysés en proposant de nouvelles contributions. Le fonctionnement FD permet au CR d'éviter la période de silence pendant la détection du spectre. Dans le système CR classique, le SU cesse de transmettre pendant la détection du spectre afin de ne pas affecter la fiabilité de détection. Dans FD-CR, SU peut éliminer la réflexion de son signal transmis et en même temps réaliser le Spectrum Sensing. En raison de certaines limitations, le résidu de l'auto-interférence ne peut pas être complètement annulé, alors la crédibilité de la détection du spectre est fortement affectée. Afin de réduire la puissance résiduelle, une nouvelle architecture de récepteur SU est élaborée pour atténuer les imperfections du circuit (comme le bruit de phase et la distorsion non linéaire de l'amplificateur à faible bruit du récepteur). La nouvelle architecture montre sa robustesse en assurant une détection fiable et en améliorant le débit de SU. / Due to the increasing demand of wireless communication services and the limitation in the spectrum resources, Cognitive Radio (CR) has been initially proposed in order to solve the spectrum scarcity. CR divides the communication transceiver into two categories: the Primary (PU) or the Secondary (SU) Users. PU has the legal right to use the spectrum bandwidth, while SU is an opportunistic user that can transmit on that bandwidth whenever it is vacant in order to avoid any interference to the signal of PU. Hence the detection of PU becomes a main priority for CR systems. The Spectrum Sensing is the part of the CR system, which monitors the PU activities. Spectrum Sensing plays an essential role in the mechanism of the CR functioning. It provides CR with the available channel in order to access them, and on the other hand, it protects occupied channels from the interference of the SU transmission. In fact, Spectrum Sensing has gained a lot of attention in the last decade, and numerous algorithms are proposed to perform it. Concerning the reliability of the performance, several challenges have been addressed, such as the low Signal to Noise Ratio (SNR), the Noise Uncertainty (NU), the Spectrum Sensing duration, etc. This dissertation addresses the Spectrum Sensing challenges and some solutions are proposed. New detectors based on Cyclo-Stationary Features detection and the Power Spectral Density (PSD) of the PU are presented. CanonicalCorrelation Significance Test (CCST) algorithm is proposed to perform cyclo-stationary detection. CCST can detect the presence of the common cyclic features among the delayed versions of the received signal. This test can reveal the presence of a cyclo-stationary signal in the received mixture signal. Another detection method based on the cumulative PSD is proposed. By assuming the whiteness of the noise (its PSD is at), the cumulative PSD approaches a straight line. This shape becomes non-linear when a telecommunication signal is present in the received mixture. Distinguishing the Cumulative PSD shape may lead to diagnose the channel status.Full-Duplex Cognitive Radio (FD-CR) has been also studied in this manuscript, where several challenges are analyzed by proposing a new contribution. FD functioning permits CR to avoid the silence period during the Spectrum Sensing. In classical CR system, SU stops transmitting during the Spectrum Sensing in order to do not affect the detection reliability. In FD-CR, SU can eliminate the reflection of its transmitted signal and at the same time achieving the Spectrum Sensing. Due to some limitations, the residual of the Self Interference cannot be completely cancelled, then the Spectrum Sensing credibility is highly affected. In order to reduce the residual power, a new SU receiver architecture is worked out to mitigate the hardware imperfections (such as the Phase Noise and the Non-Linear Distortion of the receiver Low-Noise Amplifier). The new architecture shows its robustness by ensuring a reliable detection and enhancing the throughput of SU.
|
124 |
Evaluation non destructive des matériaux de construction par technique électromagnétique aux fréquences radar : modélisation et expérimentation en laboratoireMai, Tien chinh 10 December 2015 (has links)
Les structures en béton armé ou en bois se dégradent sous des actions mécaniques et climatiques. Les propriétés physiques et mécaniques de ces matériaux sont liées aux conditions d'exposition et à leurs variations. L’évaluation non destructive de ces propriétés en amont des dégradations est une nécessité pour les maîtres d'ouvrages afin de prédire la durée de vie des structures dans un contexte de gestion durable du patrimoine bâti. La présence d’eau dans les pores du béton est un facteur qui facilite la pénétration des agents agressifs (dioxyde de carbone, chlorures, etc. responsables de l’initiation de pathologies comme la corrosion des aciers). Pour le cas du matériau bois, les causes les plus fréquentes des détériorations sont souvent d’origine biologiques (champignons et insectes). L’humidité est également reconnue comme une des conditions les plus importantes pour le développement de ces attaques. Il est donc nécessaire d’évaluer et de quantifier la variation spatiale de l’humidité dans ces matériaux de construction pour limiter les actions de réparation. Le système radar (Ground Penetrating Radar, « GPR ») est un outil d’auscultation des matériaux totalement non destructif, rapide, compact et sans contact. Cette technique est basée sur la propagation des ondes électromagnétiques. Cette propagation est fortement liée à la permittivité et la conductivité du matériau qui sont très sensibles aux variations de l’humidité. L’objectif de cette thèse est double : d’une part, modéliser l’effet des variations de l’humidité dans un matériau homogène, multi-couches ou avec gradient, et d’autre part, de quantifier expérimentalement l’effet d’un gradient d’humidité sur le béton et celui de l’anisotropie sur le bois. Pour cela, un modèle analytique a été développé en se basant sur la notion des lois de mélange (ajustées sur des mesures expérimentales de la permittivité en prenant en compte l’effet de la dispersion fréquentielle) et sur la propagation d’une onde plane. Une simulation numérique a permis d’apprécier l’effet d’un gradient et d’un milieu anisotropique sur la vitesse de propagation des ondes radar. La phase expérimentale a été effectuée sur un matériau modèle homogène et isotrope comme le sable pour comparer les différentes méthodes de mesure de la vitesse de l’onde directe. Une analyse fréquentielle de l’atténuation a été également étudiée pour évaluer la dispersion de l’atténuation dans un milieu considéré comme homogène. La deuxième partie de l’expérimentation a consisté à suivre par mesures radar le séchage d’une dalle en béton instrumentée par capteurs d’humidité. Enfin, une campagne expérimentale sur des échantillons en bois de deux essences (Pin et Epicéa) soumis à des humidités variables entre 0 et 50% a été menée. La phase de modélisation et de simulation a montré que la dispersion fréquentielle est significative seulement dans le cas d’un béton humide à forte salinité et que l’anisotropie et le gradient ont un effet significatif sur la propagation. La phase expérimentale a montré que dans le cas d’un matériau homogène, la vitesse est indépendante de la distance émetteur-récepteur, et qu’elle est variable dans le cas d’un béton soumis à un gradient d’humidité. Enfin, les essais sur le bois montrent que la partie réelle de sa permittivité est croissante en fonction de l’humidité. Le contraste de permittivité entre direction longitudinale et transversale (tangentielle ou radiale) est négligeable à l’état sec du matériau et commence à être significatif à partir de la saturation des fibres. Cela permet de privilégier la direction longitudinale à la direction transversale pour évaluer l’humidité des structures en bois. / The reinforced concrete or the timber structures are degraded under mechanical and climatic actions. Physical and mechanical properties of these materials are linked to outdoor exposure conditions and their variations. The early non-destructive evaluation of these properties before the initiation of degradations is a need for masters of structures in order to predict the service life of the structures in a context of sustainable management of the built heritage. The presence of water in the pores of the concrete is a factor which facilitates the penetration of aggressive agents (carbon dioxide, chlorides, etc. responsible of the initiation of pathologies such as steel corrosion). In the case of wood material, the most common causes of damage are often of biological origin (fungi and insects). Moisture is also recognized as one of the most important conditions for the development of these attacks. It is therefore necessary to evaluate and quantify the spatial variation of the humidity in the building materials to limit repair actions. The GPR system (Ground Penetrating Radar) is an auscultation tool of materials which is completely non-destructive, fast, compact, and contactless. This technique is based on the propagation of electromagnetic waves. This propagation is strongly linked to the permittivity and the conductivity of the material that are highly sensitive to changes in humidity. The objective of this thesis is twofold: first, modelling the effect of moisture variation in a homogeneous material, multi-layers or with gradient, and secondly, to experimentally quantify the effect of a moisture gradient on the concrete and the effect of the anisotropy (case of wood material). An analytical model has been developed based on the concept of mixing laws (Fitted on experimental measurements of the permittivity by taking into account the effect of the frequency dispersion) and the propagation of a plane wave. A numerical simulation was used to assess the effects of a gradient and the effect of an anisotropic medium on the propagation velocity of the radar waves. The experimental phase was performed on a homogeneous and isotropic model material such as sand to compare different measurement methods of the velocity of the direct wave. A frequency analysis of the attenuation was also examined to evaluate the dispersion of the attenuation in a considered homogeneous medium. The second part of the experiment was to monitor, by radar measurements, the drying of a concrete slab instrumented by humidity sensors. Finally, an experimental campaign on samples of two species of wood (Pine and Spruce) with different moisture content between 0 and 50% was conducted. The modelling and simulations phase has shown that the frequency dispersion is significant only in the case of wet concrete with a high salinity content. The anisotropy and the gradient have a significant effect on the spread. The experimental phase showed that in the case of a homogeneous material, the speed is independent of the offset (distance between transmitter and receiver), and it varies in the case of concrete with a moisture gradient. Finally, tests on the timber indicate that the real part of its permittivity increases as a function of moisture. The contrast between longitudinal and transverse direction (tangential or radial) is negligible in the dry state of the material and begins to be very significant from the fiber saturation point. It indicates that the longitudinal direction, instead of the transverse direction, is more convenient to measure the moisture of wood structures.
|
125 |
Indoor radio propagation modeling for system performance prediction / Modélisation de la propagation radio en intérieur pour la prédiction des performances des systèmes radiosXie, Meiling 17 July 2013 (has links)
Cette thèse a pour but de proposer toutes les avancées possibles dans l’utilisation du modèle de propagation Multi-Resolution Frequency-Domain ParFlow (MR-FDPF). Etant un modèle de propagation radio déterministe, le modèle MR-FDPF possède un haut niveau de précision, mais souffre des limitations communes à tous les modèles déterministes. Par exemple, un canal radio réel n’est pas déterministe, mais un processus aléatoire à cause par exemple des personnes ou objets mobiles, et ne peut donc être décrit fidèlement par un modèle purement déterministe. Dans cette thèse, un modèle semi-déterministe est proposé, basé sur le modèle MR-FDPF, qui introduit une part stochastique pour tenir compte des aspects aléatoires du canal radio réaliste. La partie déterministe du modèle est composée du path loss (atténuation d’espace), et la partie stochastique venant du shadow fading (masquage) et du small scale fading (évanouissement). De même, de nombreux simulateurs de propagation radio ne proposent que la prédiction de la puissance moyenne. Mais pour une simulation précise de la propagation radio il convient de prédire également des informations de fading permettant dès lors une prédiction précise du taux d’erreur binaire (BER) potentiel. Dans cette thèse, l’information de fading est déduite des simulations MR-FDPF et par la suite des valeurs réalistes de BER sont données. Enfin, ces données réalistes de BER permettent d’évaluer l’impact de schémas de modulation adaptatifs. Des résultats sont présentés dans trois configurations : systèmes SISO (mono-antenne à l’émission et à la réception), systèmes à diversité de type MRC, et systèmes large bande de type OFDM. / This thesis aims at proposing all the possible enhancements for the Multi-Resolution Frequency-Domain ParFlow (MR-FDPF) model. As a deterministic radio propagation model, the MR-FDPF model possesses the property of a high level of accuracy, but it also suffers from some common limitations of deterministic models. For instance, realistic radio channels are not deterministic but a kind of random processes due to, e.g. moving people or moving objects, thus they can not be completely described by a purely deterministic model. In this thesis, a semi-deterministic model is proposed based on the deterministic MR-FDPF model which introduces a stochastic part to take into account the randomness of realistic radio channels. The deterministic part of the semi-deterministic model is the mean path loss, and the stochastic part comes from the shadow fading and the small scale fading. Besides, many radio propagation simulators provide only the mean power predictions. However, only mean power is not enough to fully describe the behavior of radio channels. It has been shown that fading has also an important impact on the radio system performance. Thus, a fine radio propagation simulator should also be able to provide the fading information, and then an accurate Bit Error Rate (BER) prediction can be achieved. In this thesis, the fading information is extracted based on the MR-FDPF model and then a realistic BER is predicted. Finally, the realistic prediction of the BER allows the implementation of the adaptive modulation scheme. This has been done in the thesis for three systems, the Single-Input Single-Output (SISO) systems, the Maximum Ratio Combining (MRC) diversity systems and the wideband Orthogonal Frequency-Division Multiplexing (OFDM) systems.
|
126 |
Radiation hardening of rare-earth doped fiber amplifiers / Durcissement aux radiations d'amplificateurs à fibres optiques dopés aux terres raresVivona, Marilena 04 July 2013 (has links)
Cette thèse est consacrée à l'étude de la réponse aux radiations d'amplificateurs à fibre optiques dopées Er 3+ et Yb3+. Ces dispositifs fonctionnant à 1,5 µm ont été conçus pour des applications spatiales et l'évaluation de leurs performances revêt d’une importance capitale dans un tel environnement hostile. Deux traitements, le chargement en H2 et le co-dopage au Ce du cœur de la fibre, ont été étudiés comme solutions de durcissement aux radiations. Une étude spectroscopique a permis d’approfondir la connaissance des mécanismes physiques de base responsables de la dégradation de ces composants et par conséquent de proposer des solutions de durcissement. La thèse est organisée en trois parties. La Partie I présente une description générale des fibres dopées aux ions de Terres Rares (TR), avec l'introduction des concepts de base de la physique de tels éléments et leur interaction avec la matrice hôte (verre phosphosilicate). L'état de l'art concernant les effets des rayonnements sur les fibres dopées aux TR est également présenté. La Partie II décrit les échantillons et les techniques expérimentales utilisées. La Partie III décrit les principaux résultats dont les tests, en configuration active, démontrent que le co-dopage au Ce ainsi que le chargement en H2 ont un rôle-clé dans la limitation des pertes induites par rayonnement. L'analyse spectroscopique de la matrice vitreuse (Raman) et des ions TR (par mesures de luminescence stationnaire et résolue en temps) mettent en exergue un fort effet de durcissement, conduisant à une préservation de l'efficacité du système physique en opération / This thesis is devoted to the study of the radiation response of optical amplifiers based on Er/Yb doped fibers. These devices operating at 1.5 µm are conceived for space applications and contextually the evaluation of their performance in such harsh environment becomes of crucial importance. Two treatments, the H2-loading and the Ce-doping of the fiber core, are investigated as radiation hardening solutions. A spectroscopic study has been associated, in order to improve the knowledge of the physical mechanisms responsible for the signal degradation and the action of the hardening solutions. The thesis is organized in three parts. Part I deals with a general description of the Rare-Earth (RE)-doped fibers, with the introduction of some basic concepts of the RE-ion physics and their interaction with the host matrix material (phosphosilicate glass). The state-of-art of the radiation effects on the optical fibers, particularly the RE- doped fibers, is also overviewed. Part II describes the samples (fiber fabrication, geometry and chemical compositions), and the used experimental techniques, including a short discussion on the related theoretical background. Part III describes the main results; firstly, the active tests, performed on the RE-doped fiber as part of an optical amplifier, demonstrate that the Ce-codoping and H2-load have a key-role in the limitation of the radiation induced losses. Then, the spectroscopic analysis of the phosphosilicate glass (Raman study) and of the RE-ions (stationary and time-resolved luminescence) show a stabilization effect due to the two treatments, leading to a preservation of the high efficiency of the physical system under study
|
127 |
Proton computed tomography / Tomographie proton informatiséeQuiñones, Catherine Thérèse 28 September 2016 (has links)
L'utilisation de protons dans le traitement du cancer est largement reconnue grâce au parcours fini des protons dans la matière. Pour la planification du traitement par protons, l'incertitude dans la détermination de la longueur du parcours des protons provient principalement de l'inexactitude dans la conversion des unités Hounsfield (obtenues à partir de tomographie rayons X) en pouvoir d'arrêt des protons. La tomographie proton (pCT) est une solution attrayante car cette modalité reconstruit directement la carte du pouvoir d'arrêt relatif à l'eau (RSP) de l'objet. La technique pCT classique est basée sur la mesure de la perte d'énergie des protons pour reconstruire la carte du RSP de l'objet. En plus de la perte d'énergie, les protons subissent également des diffusions coulombiennes multiples et des interactions nucléaires qui pourraient révéler d'autres propriétés intéressantes des matériaux non visibles avec les cartes de RSP. Ce travail de thèse a consisté à étudier les interactions de protons au travers de simulations Monte Carlo par le logiciel GATE et d'utiliser ces informations pour reconstruire une carte de l'objet par rétroprojection filtrée le long des chemins les plus vraisemblables des protons. Mise à part la méthode pCT conventionnelle par perte d'énergie, deux modalités de pCT ont été étudiées et mises en œuvre. La première est la pCT par atténuation qui est réalisée en utilisant l'atténuation des protons pour reconstruire le coefficient d'atténuation linéique des interactions nucléaires de l'objet. La deuxième modalité pCT est appelée pCT par diffusion qui est effectuée en mesurant la variation angulaire due à la diffusion coulombienne pour reconstruire la carte de pouvoir de diffusion, liée à la longueur de radiation du matériau. L'exactitude, la précision et la résolution spatiale des images reconstruites à partir des deux modalités de pCT ont été évaluées qualitativement et quantitativement et comparées à la pCT conventionnelle par perte d'énergie. Alors que la pCT par perte d'énergie fournit déjà les informations nécessaires pour calculer la longueur du parcours des protons pour la planification du traitement, la pCT par atténuation et par diffusion donnent des informations complémentaires sur l'objet. D'une part, les images pCT par diffusion et par atténuation fournissent une information supplémentaire intrinsèque aux matériaux de l'objet. D'autre part, dans certains des cas étudiés, les images pCT par atténuation démontrent une meilleure résolution spatiale dont l'information fournie compléterait celle de la pCT par perte d'énergie. / The use of protons in cancer treatment has been widely recognized thanks to the precise stopping range of protons in matter. In proton therapy treatment planning, the uncertainty in determining the range mainly stems from the inaccuracy in the conversion of the Hounsfield units obtained from x-ray computed tomography to proton stopping power. Proton CT (pCT) has been an attractive solution as this modality directly reconstructs the relative stopping power (RSP) map of the object. The conventional pCT technique is based on measurements of the energy loss of protons to reconstruct the RSP map of the object. In addition to energy loss, protons also undergo multiple Coulomb scattering and nuclear interactions which could reveal other interesting properties of the materials not visible with the RSP maps. This PhD work is to investigate proton interactions through Monte Carlo simulations in GATE and to use this information to reconstruct a map of the object through filtered back-projection along the most likely proton paths. Aside from the conventional energy-loss pCT, two pCT modalities have been investigated and implemented. The first one is called attenuation pCT which is carried out by using the attenuation of protons to reconstruct the linear inelastic nuclear cross-section map of the object. The second pCT modality is called scattering pCT which is performed by utilizing proton scattering by measuring the angular variance to reconstruct the relative scattering power map which is related to the radiation length of the material. The accuracy, precision and spatial resolution of the images reconstructed from the two pCT modalities were evaluated qualitatively and quantitatively and compared with the conventional energy-loss pCT. While energy-loss pCT already provides the information needed to calculate the proton range for treatment planning, attenuation pCT and scattering pCT give complementary information about the object. For one, scattering pCT and attenuation pCT images provide an additional information intrinsic to the materials in the object. Another is that, in some studied cases, attenuation pCT images demonstrate a better spatial resolution and showed features that would supplement energy-loss pCT reconstructions.
|
128 |
Action-effect prediction in intention-based and stimulus-driven actions : an exploration of the ideomotor theory and of the brain free-energy principle / La prédiction des effets sensoriels des actions auto-générées : vers une harmonisation de la théorie idéomotrice et du principe de l'énergie cérébrale libreLe Bars, Solène 28 November 2017 (has links)
Les actions motrices humaines peuvent être envisagées comme étant soit volontaires, c'est-à-dire intérieurement déclenchées afin d’atteindre un certain but, soit réactives, c'est-à-dire extérieurement déclenchées par des stimuli environnementaux. Cette dissociation a notamment été proposée au sein de la théorie idéomotrice suggérant que la réalisation d'actions volontaires repose sur notre capacité à prédire les conséquences sensorielles de nos actions, grâce aux associations action-effet qui sont acquises avec l'expérience. Selon les modèles computationnels tels que le principe de minimisation de l’énergie libre, la prédiction sensorielle est également considérée comme un processus majeur de la perception et du contrôle moteur, indépendamment du type d’action. Dès lors, les études visant à explorer la prédiction sensorielle liée au contrôle moteur ont systématiquement minimisé la distinction potentielle entre deux types d'actions plus ou moins indépendantes. Dans la présente thèse, nous nous sommes principalement attelés à tester la théorie idéomotrice originale qui suggère une implication supérieure de la prédiction sensorielle dans les actions intentionnelles par rapport à des actions plus réactives. Nous avons réalisé ce travail selon trois axes : (1) À travers des expériences comportementales, nous avons cherché à préciser à quel(s) stade(s) moteur(s) la prédiction de l'effet de l'action pouvait être associée, dans les actions intentionnelles d’une part et dans les actions davantage réactives d’autre part, afin de pouvoir dissocier la dynamique temporelle de la prédiction sensorielle au sein de ces deux catégories d'actions. (2) En tirant parti des postulats dérivés des approches computationnelles, nous avons utilisé l'EEG pour explorer d'abord le niveau d'erreur de prédiction liée aux effets sensoriels imprévisibles ou mal-prédits afin de dissocier ces deux types d'événements non prédits au niveau neural. Par la suite, nous avons étudié si les marqueurs EEG de la prédiction sensorielle (c'est-à-dire l'erreur de prédiction et l'atténuation sensorielle) étaient modulés par le type d'action déclenchant l'effet sensoriel. (3) Enfin, nous avons examiné si des variations dans le processus de prédiction des effets de l'action pouvaient être associés à certains déficits moteurs dans la maladie de Parkinson et à des tendances impulsives mesurées chez des participants sains, pour éventuellement conférer une dimension clinique au processus de prédiction sensorielle. Nos résultats ont démontré (1) que la dynamique temporelle de la prédiction des effets de l'action semble effectivement dépendre du type d'action, en étant liée aux étapes précoces et tardives de la préparation motrice des actions intentionnelles, mais seulement aux étapes tardives de la préparation motrice des actions réactives. Nous avons également montré que (2) les événements mal prédits généraient une erreur de prédiction plus importante comparativement à des événements imprévisibles. Par ailleurs, les marqueurs EEG de la prédiction sensorielle étaient plus prononcés pour les effets auditifs déclenchés par des actions intentionnelles par rapport aux effets auditifs déclenchés par des actions réactives. Enfin, nos résultats ont permis de démontrer que (3) le processus de prédiction sensorielle semble être altéré lors de la réalisation d’actions intentionnelles chez des patients atteints de la maladie de Parkinson, et que les marqueurs EEG de la prédiction d’effets auditifs déclenchés par des actions intentionnelles sont modulés par les tendances impulsives d’individus sains. Dans l'ensemble, nos résultats soutiennent l’existence d’une dissociation fonctionnelle entre actions intentionnelle et réactive, et sont également cohérents avec la version originale de la théorie idéomotrice étant donné que la prédiction sensorielle semble être impliquée plus tôt et plus fortement dans les actions intentionnelles que dans les actions réactives. (…) / Motor actions can be classified as being either intention-based, i.e. internally triggered in order to reach a certain goal, or either stimulus-driven, i.e. externally triggered in order to accommodate to environmental events. This elementary dissociation was notably theorized within the original ideomotor theory stating that performing intention-based actions relies on our capacity to predict the sensory consequences of our actions, due to action-effect associations learnt through experience. In recent neurocomputational models such as the brain free-energy principle, this sensory prediction is considered as a key process of overall sensorium and motor control, regardless the action type. Henceforth, experiments studying sensory prediction related to motor control have systematically minimized the potential distinction between two more or less independent action types. In the current thesis, we mainly attempted to address this issue by testing the original ideomotor viewpoint, suggesting a superior involvement of action-effect prediction in intention-based actions compared to more reactive actions. We achieved this work according to three axes: (1) Through behavioural experiments, we aimed at clarifying which motor stage(s) action-effect prediction is related to, within intention-based actions and within stimulus-driven actions, in order to potentially dissociate the temporal dynamics of action-effect prediction in these two categories of actions. (2) Taking advantage from assumptions derived from neurocomputational approaches, we used EEG to first explore the level of prediction error related to unpredicted vs. mispredicted auditory events in order to dissociate these two types of nonpredicted events at a neural level. Then, we investigated whether EEG markers of sensory prediction (i.e., prediction error and sensory attenuation) were modulated by the kind of action triggering the sensory effect. (3) Finally, we intended to examine whether action-effect prediction variations could be linked to motor deficits in Parkinson's disease on the one hand, and to impulsivity tendencies in healthy participants on the other hand, for possibly yielding a clinical dimension to the sensory prediction process. Our findings demonstrated (1) the temporal dynamics of action-effect prediction seems to depend on the action kind, being linked to both early and late stages of motor preparation of intention-based actions and only to late stages of motor preparation of stimulus-driven actions. We also showed that (2) mispredicted events were linked to enhanced prediction error compared to unpredicted events, and that EEG markers of sensory prediction were more pronounced for auditory effects triggered by intention-based actions compared to auditory effects triggered by stimulus-driven actions. Then, our results sustained that (3) the action-effect prediction process seems to be impaired for intention-based actions in Parkinson's disease, and that EEG markers of sensory prediction for effects triggered by intention-based actions are modulated by impulsiveness tendencies in healthy participants. Altogether, our findings are consistent with the original version of the ideomotor theory given the action-effect prediction appeared to be earlier and stronger involved in intention-based actions compared to stimulus-driven actions. Our EEG data also modernized the ideomotor principle, reconciling it with neurocomputational approaches of sensory prediction. Finally, the clinical exploration of the action-effect prediction process in pathologies affecting motor control appeared promising to understand intermediate neurocognitive processes which are involved in motor symptoms or characteristics.
|
129 |
Ultrasound shear wave imaging for diagnosis of nonalcoholic fatty liver diseaseYazdani, Ladan 04 1900 (has links)
Pour le diagnostic et la stratification de la fibrose hépatique, la rigidité du foie est un biomarqueur quantitatif estimé par des méthodes d'élastographie. L'élastographie par ondes de cisaillement (« shear wave », SW) utilise des ultrasons médicaux non invasifs pour évaluer les propriétés mécaniques du foie sur la base des propriétés de propagation des ondes de cisaillement. La vitesse des ondes de cisaillement (« shear wave speed », SWS) et l'atténuation des ondes de cisaillement (« shear wave attenuation », SWA) peuvent fournir une estimation de la viscoélasticité des tissus. Les tissus biologiques sont intrinsèquement viscoélastiques et un modèle mathématique complexe est généralement nécessaire pour calculer la viscoélasticité en imagerie SW. Le calcul précis de l'atténuation est essentiel, en particulier pour une estimation précise du module de perte et de la viscosité. Des études récentes ont tenté d'augmenter la précision de l'estimation du SWA, mais elles présentent encore certaines limites.
Comme premier objectif de cette thèse, une méthode de décalage de fréquence revisitée a été développée pour améliorer les estimations fournies par la méthode originale de décalage en fréquence [Bernard et al 2017]. Dans la nouvelle méthode, l'hypothèse d'un paramètre de forme décrivant les caractéristiques spectrales des ondes de cisaillement, et assumé initialement constant pour tous les emplacements latéraux, a été abandonnée permettant un meilleur ajustement de la fonction gamma du spectre d'amplitude. En second lieu, un algorithme de consensus d'échantillons aléatoires adaptatifs (« adaptive random sample consensus », A-RANSAC) a été mis en œuvre pour estimer la pente du paramètre de taux variable de la distribution gamma afin d’améliorer la précision de la méthode. Pour valider ces changements algorithmiques, la méthode proposée a été comparée à trois méthodes récentes permettant d’estimer également l’atténuation des ondes de cisaillements (méthodes de décalage en fréquence, de décalage en fréquence en deux points et une méthode ayant comme acronyme anglophone AMUSE) à l'aide de données de simulations ou fantômes numériques. Également, des fantômes de gels homogènes in vitro et des données in vivo acquises sur le foie de canards ont été traités.
Comme deuxième objectif, cette thèse porte également sur le diagnostic précoce de la stéatose hépatique non alcoolique (NAFLD) qui est nécessaire pour prévenir sa progression et réduire la mortalité globale. À cet effet, la méthode de décalage en fréquence revisitée a été testée sur des foies humains in vivo. La performance diagnostique de la nouvelle méthode a été étudiée sur des foies humains sains et atteints de la maladie du foie gras non alcoolique. Pour minimiser les sources de variabilité, une méthode d'analyse automatisée faisant la moyenne des mesures prises sous plusieurs angles a été mise au point. Les résultats de cette méthode ont été comparés à la fraction de graisse à densité de protons obtenue de l'imagerie par résonance magnétique (« magnetic resonance imaging proton density fat fraction », MRI-PDFF) et à la biopsie du foie. En outre, l’imagerie SWA a été utilisée pour classer la stéatose et des seuils de décision ont été établis pour la dichotomisation des différents grades de stéatose.
Finalement, le dernier objectif de la thèse consiste en une étude de reproductibilité de six paramètres basés sur la technologie SW (vitesse, atténuation, dispersion, module de Young, viscosité et module de cisaillement). Cette étude a été réalisée chez des volontaires sains et des patients atteints de NAFLD à partir de données acquises lors de deux visites distinctes. En conclusion, une méthode robuste de calcul du SWA du foie a été développée et validée pour fournir une méthode de diagnostic de la NAFLD. / For diagnosis and staging of liver fibrosis, liver stiffness is a quantitative biomarker estimated by elastography methods. Ultrasound shear wave (SW) elastography utilizes noninvasive medical ultrasound to assess the mechanical properties of the liver based on the monitoring of the SW propagation. SW speed (SWS) and SW attenuation (SWA) can provide an estimation of tissue viscoelasticity. Biological tissues are inherently viscoelastic in nature and a complex mathematical model is usually required to compute viscoelasticity in SW imaging. Accurate computation of attenuation is critical, especially for accurate loss modulus and viscosity estimation. Recent studies have made attempts to increase the precision of SWA estimation, but they still face some limitations.
As a first objective of this thesis, a revisited frequency-shift method was developed to improve the estimates provided by the original implementation of the frequency-shift method [Bernard et al 2017]. In the new method, the assumption of a constant shape parameter of the gamma function describing the SW magnitude spectrum has been dropped for all lateral locations, allowing a better gamma fitting. Secondly, an adaptive random sample consensus algorithm (A-RANSAC) was implemented to estimate the slope of the varying rate parameter of the gamma distribution to improve the accuracy of the method. For the validation of these algorithmic changes, the proposed method was compared with three recent methods proposed to estimate SWA (frequency-shift, two-point frequency-shift and AMUSE methods) using simulation data or numerical phantoms. In addition, in vitro homogenous gel phantoms and in vivo animal (duck) liver data were processed.
As a second objective, this thesis also aimed at improving the early diagnosis of nonalcoholic fatty liver disease (NAFLD), which is necessary to prevent its progression and decrease the overall mortality. For this purpose, the revisited frequency-shift method was tested on in vivo human livers. The new method's diagnosis performance was investigated with healthy and NAFLD human livers. To minimize sources of variability, an automated analysis method averaging measurements from several angles has been developed. The results of this method were compared to the magnetic resonance imaging proton density fat fraction (MRI-PDFF) and to liver biopsy. SWA imaging was used for grading steatosis and cut-off decision thresholds were established for dichotomization of different steatosis grades.
As a third objective, this thesis is proposing a reproducibility study of six SW-based parameters (speed, attenuation, dispersion, Young’s modulus, viscosity and shear modulus). The assessment was performed in healthy volunteers and NAFLD patients using data acquired at two separate visits. In conclusion, a robust method for computing the liver’s SWA was developed and validated to provide a diagnostic method for NAFLD.
|
130 |
Succès et difficultés de la mise en œuvre des plans d'action de lutte contre les changements climatiques du gouvernement québécois 2006-2012 et 2013-2020Caron, Hélène 27 August 2019 (has links)
Les changements climatiques « reflètent ce que la science dit et ce dont la politique tient de plus en plus compte » (Ouranos, 2015). La présente thèse consiste à documenter la mise en oeuvre des deux derniers plans de lutte contre le réchauffement du climat préparés par le gouvernement québécois, soit Le Québec et les changements climatiques : un défi pour l’avenir. Plan d’action 2006-2012, ainsi que Le Québec en action. Vert 2020. Plan d’action 2013-2020 sur les changements climatiques. Au croisement des travaux en sociologie de l’action publique (Matland, 1995 ; Kübler et Maillard, 2009), des perspectives théoriques de la modernisation écologique et de sa tradition d’étude des politiques publiques (Béal, 2016), comment se déroule cette mise en oeuvre, d’une part, et pourquoi y a-t-il des succès et des difficultés, d’autre part? Même si le Québec pénètre de plain-pied dans la société à faible carbone, grâce à son tandem énergétique éolien-hydroélectrique, la lutte contre les changements climatiques représente un défi considérable qu’il a accepté de relever en se dotant d’une cible ambitieuse. Le PACC 2006-2012 a fait avancer les choses, mais beaucoup reste à faire et il y a un bémol : le PACC 2013-2020 permettra-t-il d’atteindre sa cible de réduction de 20 % des émissions de GES par rapport au seuil de 1990 (Gouvernement du Québec, 2012a, p. I) ? Au 31 mars 2016, on constate la sous-utilisation du PACC 2013-2020, car à peine 22 % du budget prévu se trouve entamé (MDDELCC, 2017a, p. 46). Les baisses d’émissions de GES et l’adaptation aux changements climatiques se font attendre. La thèse s’inscrit dans le cadre théorique de la modernisation écologique (Huber, 1982 ; Spaargaren et Mol, 1992 ; Hajer, 1995 ; Jänicke, 1995 ; Mol, 2003 ; Christoff, 2009 ; Spaargaren et al., 2009 ; Toke, 2011), que plusieurs dépeignent comme la version sociologique du projet du développement durable, centrée sur les acteurs gouvernementaux et industriels, puis la société civile (Buttel, 2003). Par ailleurs, source de richesse analytique et compréhensive qui échappe aux études quantitatives, la méthode privilégiée est l’entretien semi-dirigé (Fortin, 2013) auprès des maîtres d’oeuvre de ces PACC, des fonctionnaires pour la plupart, ainsi que l’analyse de contenu (Leray, 2008) pour le traitement des données. Mais les limites évidentes des indicateurs et de la méthode qualitative impliquent une vérification partielle des hypothèses. En outre, la thèse de la modernisation écologique se situe dans le long terme et a besoin de temps pour se soumettre à une vérification empirique (Guay, 2018)... / Climate change represents what science says and what politics is increasingly taking into account (Ouranos, 2015). The purpose of this thesis aims to document the implementation of the two last action plans against global warming, prepared by the Governement of Québec, namely Le Québec et les changements climatiques : un défi pour l’avenir. Plan d’action 2006-2012, and Le Québec en action. Vert 2020. Plan d’action 2013-2020 sur les changements climatiques. At the junction between the analysis of public action (Matland, 1995 ; Kübler et Maillard, 2009) and the theoretical framework of the ecological modernization and its tradition of the public policies sociology (Béal, 2016), this thesis tries to answer two questions : how is the implementation carried out and why are there successes and difficulties to this adoption? Québec gets its foot in a low-carbon society, through the wind and hydroelectric energy tandem. However, fighting against climate change represents a major challenge, which Québec has accepted with an ambitious target. The PACC 2006-2012 got some basis implemented, but there remains a lot to do and outcomes remain unknown : will the PACC 2013-2020 achieve its greenhouse gas emissions reduction target of 20 % below the line of 1990 (Gouvernement du Québec, 2012a, p. I) ? At march 31, 2016, one notes the under-implementation of the PACC 2013-2020, since 22 % only of the planned budget had already been spent (MDDELCC, 2017a, p. 46). Greenhouse gas emissions reduction and climate change adaptation are lagging behind projections. The thesis fits into the theoretical framework of the ecological modernization (Huber, 1982 ; Spaargaren et Mol, 1992 ; Hajer, 1995 ; Jänicke, 1995 ; Mol, 2003 ; Christoff, 2009 ; Spaargaren et al., 2009 ; Toke, 2011), which many people present as the sociological version of the sustainable development project, focused on state and industrial actors, then the civil society (Buttel, 2003). Moreover, source of analytical and comprehensive wealth, which escapes from quantitative studies, the preferred method is semi-directive interviews (Fortin, 2013) with the supervisors of the two PACC, public authorities for the greater part, as well as content analysis (Leray, 2008) for data treatment. But the obvious limitations of the indicators and the qualitative method involve a partial validation of the hypotheses. Otherwise, the ecological modernization thesis takes place in a long-term perspective and requires time for an empirical testing (Guay, 2018)...
|
Page generated in 0.0906 seconds