• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 715
  • 287
  • 64
  • Tagged with
  • 1053
  • 566
  • 556
  • 407
  • 352
  • 320
  • 225
  • 221
  • 184
  • 167
  • 143
  • 143
  • 137
  • 113
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Search for new physics with two photons in the final state with the ATLAS detector / Recherche de nouvelle physique dans des états finals à deux photons avec le détecteur ATLAS

Yap, Yee chinn 23 January 2017 (has links)
Le sujet de cette thèse est la recherche de signaux de physique au-delà du modèle standard,dans le canal de désintégration en deux photons, dans les collisions proton-proton enregistrées par le détecteur ATLAS à des énergies dans le centre de masse de √s = 8 TeV en 2012 et√s = 13 TeV en 2015 et 2016.Une étude de faisabilité de la recherche d’un boson pseudo-scalaire A se désintégrant en un boson Z et un boson de Higgs d’une masse de 125 GeV est présentée. Cette étude est effectuée dans le contexte de modèles prédisant deux doublets de Higgs. L’état final recherché est constitué de deux jets hadroniques et deux photons et les données utilisées sont celles enregistrées en 2012 `a √s = 8 TeV, correspondant `a une luminosité intégrée de 20.3 fb−1. La sensibilité attendue est comparable `a celle atteinte avec une autre recherche effectuée dans la collaboration ATLAS, basée sur l’état final constitué d’une paire d’électrons ou muons et d’une paire de leptons τ . En revanche, elle est inférieure à celle des études dans lesquelles le Higgs est recherché dans sa désintégration en une paire de quarks beaux.La recherche de nouvelles résonances de haute masse se désintégrant en deux photons dans les collisions `a 13 TeV est également présentée. Les échantillons analysés correspondent à des luminosités intégrées de 3.2 fb−1 en 2015 et 12.2 fb−1 en 2016. Deux études sont développées :l’une est optimisée pour la recherche, aussi générale que possible, d’une particule de spin 0; la seconde cible une particule de spin 2 telle que le graviton prédit par le modèle de Randall-Sundrum. Une attention particulière est portée `a la compréhension et la paramétrisation de la forme de la résonance dans l’hypothèse où celle-ci aurait une largeur naturelle non négligeable.L’analyse des données enregistrées en 2015 conclut `a l’observation d’un léger excès autour d’une masse de 750 GeV, d’une largeur d’environ 45 GeV, et dont la significativité statistique locale est estimée à 3,9 et 3,8 écarts standard selon le spin de la résonance recherchée. La significativité globale est estimée à 2,1 écarts standard. L’analyse des données enregistrées en 2016 ne mène à l’observation d’aucun excès significatif. Des limites sur le produit de la section efficace de production d’une résonance par le taux de désintégration en deux photons sont établies : pour une résonance de spin nul, elles vont de 12 fb (51 fb) `a une masse de 200 GeV `a 0,2 fb (0,3 fb)`a 2400 GeV, dans l’hypothèse d’une largeur naturelle de 4 MeV (10% de la masse). Une étude de la reconnaissance des photons se convertissant en une paire électron-positon avant d’interagir avec les calorimètres, basée sur la forme de la gerbe électromagnétique détectée est également documentée. Cette étude a deux objectifs : d’une part, améliorer l’identification des photons convertis dans le contexte de taux d’empilement élevés ; d’autre part, fournir une méthode d’identification basée sur des informations indépendantes (calorimétriques) de celles utilisées par la méthode standard (trajectoires des particules chargées) afin d’évaluer les performances de cette dernière. / This thesis reports on the search for new physics in the diphoton decay channel with the protonprotoncollision data collected by ATLAS at a centre-of-mass energy of √s = 8 TeV in 2012and √s = 13 TeV in 2015 and 2016.A feasibility study of the search for a pseudoscalar A decaying to a Z boson and a 125 GeVHiggs boson in the context of an extended Higgs sector, namedly the two-Higgs-doublet models,is presented. The search is performed with a final state of two jets and two photons using20.3 fb−1 of data at √s = 8 TeV. The expected sensitivity is found to be competitive with theanalysis with a final state of two electrons or muons and two τ leptons, but less sensitive to theother searches with the Higgs decaying to a pair of b-quarks.Search for high mass resonances decaying to two photons at √s = 13 TeV is also presented.The analysed dataset corresponds to an integrated luminosity of 3.2 fb−1 in 2015 and 12.2 fb−1in 2016. Two searches are performed: one optimised for a generic spin-0 particle, and theother for a spin-2 particle using Randall-Sundrum graviton model as benchmark. Particularattention is paid to the understanding and the parameterisation of the line shape of a largewidthresonance. In the search using the collision data recorded in 2015, a moderate excess wasobserved at a diphoton invariant mass around 750 GeV with a best-fit width of around 45 GeV,corresponding to a local significances of 3.8-3.9 standard deviations, depending on the spin ofthe resonance being searched for. The global significances are estimated to be 2.1 standarddeviations. The search is updated with 2016 data and no significant excess is observed. Limitson the production cross-section times branching ratio to two photons for the two resonancetypes are reported: for a spin-0 resonance, the fiducial cross-section ranges from 12 fb (51 fb) at200 GeV to 0.2 fb (0.3 fb) at 2400 GeV, with the narrow (10% of the mass) width hypothesis.A part of this document is also devoted to the study of photons that convert into electronpositronpairs before entering the calorimeter using their electromagnetic shower information.The conversion study has two objectives: improving the identification of photon conversion athigh pile-up rate and providing an orthogonal classification method to assess the performanceof the standard track-based algorithm.
12

Nanostructures creuses plasmoniques : préparation par remplacement galvanique, caractérisation et étude des propriétés spectroscopiques

Richard-Daniel, Josée 28 January 2021 (has links)
Les nanostructures plasmoniques sont à l’origine de nombreuses avancées technologiques aussi bien en recherche analytique ou biomédicale que dans la production et le stockage d’énergie. L’intérêt pour cette nanotechnologie est motivé par l'adaptabilité des propriétés optiques et électroniques réalisable en manipulant la composition et la structure des particules métalliques. Contrairement aux matériaux macroscopiques, un minuscule changement de taille ou de morphologie peut entraîner un important changement dans la réponse optique des particules. Puisque l’efficacité des nanostructures pour le développement d’applications dépend fortement de leurs propriétés plasmoniques, un fin contrôle sur celles-ci est crucial. À cet effet, les nanoparticules creuses présentent un intérêt particulier en raison de la possibilité de moduler leur résonance plasmon de surface localisée (LSPR) par la manipulation du rapport de dimension entre la cavité et la coquille. L’approche la plus directe pour la synthèse de ce type d’architectures est la réaction de remplacement galvanique, dont la première étape est de préparer des nanoparticules de géométrie désirée qui serviront de gabarit sacrificiel, pour ensuite les oxyder avec un métal de potentiel de réduction plus élevé afin de produire une coquille creuse qui suivra la forme du gabarit. Cette approche de synthèse nécessite une maitrise de la cinétique de réaction typiquement obtenue en contrôlant le débit d’incorporation du réactif, par l’ajustement de la température du milieu réactionnel et/ou l’ajout d’un co-réducteur. Cette thèse décrit comment l'efficacité du remplacement galvanique peut être améliorée en contrôlant le degré d'hydratation et d'hydrolyse du précurseur d'ions métalliques (c.-à-d. leur spéciation) en utilisant le pH ou la concentration de ligand comme paramètres de contrôle. Dans ce travail, nous avons démontré que les espèces Au3+ hautement chlorées de forme AuCl4-q(OH)- q remplacent agressivement les nanoparticules Ag et conduisent à des structures brisées alors que les espèces fortement hydrolysées sont inactives en raison de leur potentiel de réduction plus faible à celui de l’argent. Toutefois, en utilisant des ions métalliques partiellement hydrolysés, nous avons pu obtenir des nanostructures creuses avec des parois lisses ou rugueuses. Par ailleurs, les propriétés optiques des nanoparticules creuses Ag-Au telles que les énergies de résonance plasmon et l'intensité des bandes d’extinction et de diffusion ont été analysées. Deux paramètres-clé pour modifier les propriétés optiques ont été étudiées, à savoir, la stœchiométrie atomique des métaux et la taille de la matrice sacrificielle utilisée. Nous avons démontré que la combinaison des deux approches offre de nombreuses possibilités pour le réglage des résonances plasmon. Finalement cette étude a été étendue à d’autres ions métalliques, tels que PdCl2-4- et PtCl2-4- , pour la formation de nanoparticules creuses Ag-Pd et Ag-Pt. / Plasmonic nanostructures are at the origin of many technological advances in analytical or biomedical sciences as well as for the production and storage of energy. The interest for this nanotechnology is motivated by the adaptability of optical and electronic properties achievable by manipulating the composition and structure of the particles. Unlike macroscopic materials, a tiny change in the size or morphology may result in a significant change in the optical response of particles. Since the efficiency of nanostructures for application development strongly depends on their plasmonic properties, a fine control over them is crucial. For this purpose, hollow nanoparticles are of interest because of their highly tunable localized surface plasmon resonance (LSPR) made possible by manipulating the dimension ratio between the cavity and the shell. The most direct approach for synthesizing this type of architecture is the galvanic replacement reaction, where nanoparticles of the desired geometry are first prepared as a sacrificial template and then oxidized with a metal ion of higher reduction potential producing a hollow shell which conforms to the shape of the template. This synthesis approach requires excellent control over reaction kinetics typically obtained by adjusting the rate of incorporation of the reagent, the temperature of the reaction medium, and/or by the addition of a co-reducer. This thesis describes how the efficiency of galvanic replacement can be improved by controlling the degree of hydration and hydrolysis of the metal ion precursor (i.e., the metal ion speciation) using pH or ligand concentration as control parameters. In this work, we have demonstrated that highly chlorinated Au3+ species in the forms of AuCl4-q(OH)- aggressively replace Ag nanoparticles and lead to broken structures while highly hydrolyzed species are inactive due to their lower reduction potential than that of the Ag nanoparticles. However, using partially hydrolyzed metal ions, we were able to obtain hollow nanostructures with smooth or rough walls. In addition, the optical properties of Ag-Au hollow nanoparticles such as the plasmon resonance energies and the intensity of the extinction and diffusion bands were analyzed. Two key parameters to modify the optical properties were studied, namely the atomic stoichiometry of the metals and the size of the sacrificial template. We have shown that the combination of the two approaches offers many possibilities for the tuning of plasmon resonances. Finally, this study was extended to other metal ions, such as PdCl2-4 and PtCl2-4 , for the formation of nanoparticles hollow Ag-Pd and Ag-Pt.
13

Using MRI physics and AI for multi-parametric MRI-guided radiotherapy

Safari, Mojtaba, Safari, Mojtaba 11 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / L'objectif principal de cette thèse est d'explorer les applications de l'imagerie par résonance magnétique multiparamétrique (IRMmp) en radio-oncologie. Les images IRM sont utilisées à différentes étapes de la radiothérapie, notamment la planification, le guidage et le suivi. L'étape de planification utilise généralement le contraste des tissus mous de l'IRM ou des images physiologiques pour délimiter les cibles. L'étape de guidage utilise le contraste des tissus mous de l'IRM pour guider les traitements de radiothérapie. L'IRM quantitative (qMRI) et l'IRMmp sont utilisées pour évaluer une réponse au traitement. Cette thèse vise à utiliser les cartes qMRI pour quantifier la réponse des tissus de la tête et du cou à l'oxygénation, réduire les artefacts et les distorsions de l'IRM, et enfin fusionner l'IRM et la tomodensitométrie (TDM). Un des objectif est d'optimiser les cartes qMRI incluant T₁ et R₂* pour quantifier la préservation de l'oxygène après avoir administré de l'oxygène pur (pO₂) aux volontaires sains. Cette étude était la première in vivo quantifiant la préservation de l'oxygène dans les tissus de la tête et du cou après l'administration de pO₂. Deux expériences distinctes ont été réalisées : (1) délivrer une oxygénation normobare (NBO) et comparer les cartes qMRI en série T₁ et R₂* acquises pendant et après la NBO avec la ligne de base (avant de délivrer la NBO), et (2 ) délivrant une oxygénation hyperbare (HBO) et comparant les cartes qMRI en série T₁ et R₂* acquises après HBO avec la ligne de base (avant de délivrer HBO). Nous avons réalisé que le niveau d'oxygène de la glande parotide et du muscle masséter augmentait de manière significative (*p* < 0,05) après l'administration du NBO pendant 15 minutes et revenait à la valeur de base environ sept minutes après le NBO. Dans l'expérience HBO, une tendance similaire a été observée. Nous n'avons pas trouvé de différence entre les images qMRI de base et post-HBO. Ensuite, le travail s'est concentrée sur les distorsions et les artefacts de l'IRM. Dans cette étude, nous avons proposé un modèle d'apprentissage profond pour prédire les distorsions géométriques spécifiques aux patients (PSgD) causées par les différences de susceptibilité entre deux tissus. Ensuite, le T₁w (ceT₁w) amélioré en contraste a été corrigé pour le PSgD. Nous avons formé notre modèle d'apprentissage profond (DL) à l'aide d'un ensemble de données de 380 sujets. Nous avons comparé les distributions de doses de radiochirurgie stéréotaxique Gamma Knife (GK-SRS) pour les patients atteints de schwannome vestibulaire, calculées à l'aide d'images corrigées et corrompues par le PSgD. Nous avons constaté qu'en moyenne D$_μ$, D$_\textup{95\%}$ et D$_\textup{min}$ en Gy ont augmenté de manière significative après correction PSgD de 16,85 à 17,25, 12,30 à 12,77 et de 8,98 à 9,92. La couverture moyenne des objectifs et l'indice de conformité de Paddick ont considérablement augmenté, passant de 0,97 à 0,98 et de 0,94 à 0,96. L'indice de gradient de Paddick moyen a diminué de manière significative, passant de 2,24 à 2,15 après correction du PSgD. Les troisième et quatrième études visaient à réduire les artefacts de mouvement de l'IRM à l'aide de nouveaux modèles génératifs. Les deux études ont été formées et testées auprès de 230 patients postopératoires. De plus, un ensemble de données de 148 patients présentant des artefacts de mouvement réels a été utilisé pour valider notre modèle afin de supprimer les artefacts de mouvement réels. Cette troisième étude a exploité la T₂ fluid-attenuated inversion recovery pour former un modèle génératif non supervisé permettant de supprimer les artefacts de mouvement ceT₁w. Nous avons comparé notre modèle avec deux modèles génératifs bien connus. Nous avons également réalisé une étude d'ablation pour évaluer différentes variantes de notre modèle proposé. Notre modèle a mieux performé quantitativement et qualitativement par rapport aux autres modèles. Dans la quatrième étude, nous avons utilisé un modèle probabiliste de diffusion conditionnelle stable pour supprimer les artefacts de mouvement ceT₁w. Cette étude a proposé une nouvelle méthode pour simuler le modèle de diffusion directe dans l'espace *k*, permettant la génération d'ensembles de données in silico avec différents niveaux d'artefacts de mouvement. Notre méthode a surpassé quantitativement et qualitativement deux modèles génératifs et un modèle supervisé. Le dernier volet a proposé une méthode non supervisée pour fusionner la tomodensitométrie et l'IRM, car elles fournissent des informations complémentaires pour la planification de la radiothérapie. Les images TDM sont géométriquement corrigées et fournissent des informations sur la densité électronique pour un calcul précis de la dose et l'IRM fournit des images avec un excellent contraste des tissus mous. Cette étude a proposé un modèle génératif de fusion médicale non supervisé pour fusionner la tomodensitométrie et le ceT₁w haute résolution afin de générer une image avec la structure osseuse de la tomodensitométrie et le contraste des tissus mous de l'IRM. Ainsi, la délimitation des tumeurs et des organes à risque sera améliorée et le temps de planification de la radiothérapie sera réduit. Les résultats de notre méthode ont été comparés quantitativement et qualitativement à sept méthodes traditionnelles et à huit méthodes de pointe DL, où notre méthode les a toutes surpassées. / The main goal of this thesis is to explore multi-parametric magnetic resonance imaging (mpMRI) applications in radiation oncology. MRI images are used in different stages of the treatments including planning, guiding, and following up. The planning step usually utilizes MRI soft-tissue contrast or physiological images to delineate targets. The guiding step uses MRI soft-tissue contrast to guide radiation treatments. Quantitative MRI (qMRI) and mpMRI are used to evaluate a response to the treatment. This thesis aimed to use qMRI maps to quantify head and neck tissues' response to oxygenation, reduce MRI artifacts and distortions, and finally fuse MRI and computed tomography (CT). This thesis was started to optimize qMRI maps including T₁ and R₂* to quantify oxygen preservation after delivering pure oxygen (pO₂) to the healthy volunteers. This study was the first in vivo quantifying head and neck tissue oxygen preservation after delivering pO₂ . Two separate experiments were carried out : (1) delivering normobaric oxygenation (NBO) and comparing serial qMRI T₁ and R₂* maps acquired during and after NBO with the baseline (before delivering NBO), and (2) delivering hyperbaric oxygenation (HBO) and comparing the serial qMRI T₁ and R₂* maps acquired after HBO with the baseline (before delivering HBO). We realized that the parotid gland and masseter muscle oxygen level increased significantly (*p* < 0.05) after delivering NBO for 15 minutes and returned to the baseline around seven minutes after the NBO. In the HBO experiment, a similar trend was observed. We did not find a difference between baseline and post-HBO qMRI images. Then, our thesis concentrated on the MRI distortions and artifacts. In the second study, we proposed a deep learning model to predict MRI patient-specific geometry distortions (PSgD) caused by susceptibility differences between two tissues. Then, the contrast-enhanced T₁W (ceT₁W) was corrected for the PSgD. We trained our deep learning (DL) model using a dataset of 380 subjects. We compared the Gamma Knife stereotactic radiosurgery (GK-SRS) dose distributions for the patients with vestibular schwannoma calculated using PSgD-corrected and PSgD-corrupted images. We found that on average D$_μ$, D$_\textup{95\%}$ et D$_\textup{min}$ in Gy significantly increased after PSgD correction from 16.85 to 17.25, 12.30 to 12.77, and from 8.98 to 9.92. Average target coverage and Paddick's conformity index significantly increased from 0.97 to 0.98, and 0.94 to 0.96. Average Paddick's gradient index decreased significantly from 2.24 to 2.15 after PSgD correction. The third and fourth studies aimed to reduce MRI motion artifacts using novel generative models. Both studies were trained and tested using post-surgery 230 patients. In addition, a dataset of 148 patients with real motion artifacts was used to validate our model to remove real motion artifacts. The third study leveraged T₂-fluid-attenuated inversion recovery to train an unsupervised generative model for removing ceT₁W motion artifacts. We compared our model with two well-known generative models. Also, we performed an ablation study to evaluate different variations of our proposed model. Our model outperformed quantitatively and qualitatively other models. In the fourth study, we used a stable conditional diffusion probabilistic model to remove ceT₁W motion artifacts. This study proposed a novel method for simulating the forward diffusion model in *k*-space, enabling the generation of in-silico datasets with varying levels of motion artifacts. Our method quantitatively and qualitatively outperformed two generative models and one supervised model. The fifth study proposed an unsupervised method to fuse CT and MRI because they provide complementary information for radiation therapy planning. CT images are geometrically corrected and provide electron density information for accurate dose calculation and MRI provides images with excellent soft-tissue contrast. This study proposed an end-to-end unsupervised medical fusion generative model to fuse CT and high-resolution ceT₁W to generate an image with CT bone structure and MRI soft-tissue contrast. Thus, tumor and organs at risk delineation will be improved and the radiotherapy planning time will be reduced. The results of our method were quantitatively and qualitatively compared with seven traditional and eight DL state-of-the-art methods where our method outperformed the traditional and DL approaches.
14

Rôle clinique de l'imagerie par résonance magnétique pour le pronostic de sujets avec troubles cognitifs légers : stratification selon le fonctionnement cognitif global

Bodryzlova, Yuliya 23 April 2018 (has links)
Introduction : La valeur prédictive de la volumétrie cérébrale par imagerie par résonance magnétique (IRM) pour le pronostic de progression des individus avec trouble cognitif léger amnésique (TCLa) vers la maladie d’Alzheimer est généralement rapportée comme étant hors des barèmes requis pour l’implémentation de tests diagnostiques dans la pratique courante (rapport de vraisemblance positif (LR+) >= 5.0 et négatif (LR-) <= 0.2). Par contre, aucune recherche à ce jour n’a évalué cette valeur prédictive en utilisant une stratégie de stratification prenant en considération leur état cognitif global, comme indice de progression de la maladie. Objectif : Estimer la valeur pronostique de l’IRM chez les TCLa ayant un fonctionnement cognitif global préservé, défini par une cote au Mini-Mental State Examination entre 28 et 30. Méthodes : Une étude de cohorte rétrospective portant sur 147 TCLa avec fonctionnement global préservé a été effectuée à partir de la base de données de l’Alzheimer’s Disease Neuroimaging Initiative. Nous avons créé un modèle prédictif pour la progression du TCLa sur un suivi de 36 mois à partir de variables volumétriques en IRM et d’informations cliniques et sociodémographiques accessibles en première ligne. Résultats : Le meilleur modèle inclut le volume de l’hippocampe gauche, l’épaisseur corticale du lobe temporal médian, le volume intracrânien, l’âge et le sexe. L’aire sous la courbe ROC est de 91.1%; l’exactitude de classification est de 81.9%, la sensibilité est de 71.4% et la spécificité est de 85.3% (LR + = 4.9 and LR- = 0.3.) Conclusion : La prédiction obtenue par le modèle pour les sujets avec fonctionnement cognitif préservé est meilleure que celle rapportée par les études précédentes, et atteint le seuil d’utilité clinique.
15

Trabeculated myocardium in healthy adults : a first step in understanding the diagnosis of non-compaction cardiomyopathy by magnetic resonance

Tizón-Marcos, Helena 19 April 2018 (has links)
La cardiomyopathie non-compacté (NCC) est une maladie rare avec des critères diagnostiques basés sur la détection de l’augmentation du myocarde trabeculé par échocardiographie. L’imagerie par résonance magnétique (IRM) est devenue la méthode de référence pour étudier la fonction et la morphologie du cœur compte tenu de sa meilleure résolution spatiale et temporale. Toutefois, les critères diagnostiques de NCC que nous utilisons en ce moment en IRM ont été tirés d’études en échocardiographie. Ceci pourrait impliquer une augmentation de l’incidence de nouveaux cas de NCC, de même que la positivité chez les adultes en santé. Le présent travail a voulu étudier la “normalité” par IRM en termes de présence et de distribution de myocarde trabeculé chez les adultes en santé et déterminer la présence des associations entre le myocarde trabeculé et les paramètres de fonction cardiaque. / Non-compaction cardiomyopathy (NCC) is a rare entity that is currently diagnosed for the most part by echocardiography in cases of an increased layer of trabeculated myocardium. Recently, magnetic resonance imaging (MRI) became the gold standard imaging technique in the study of cardiac function and morphology due to its high spatial and temporal resolution. However, diagnostic NCC criteria developped for echocardiography have been directly applied to MRI in the abscence of a standard definition of trabeculated myocardium. This direct application of echocardiography criteria to MRI may have led to an increased incidence of new NCC cases. The aim of this present work is to clarify clinical practice by determining normality by MRI in terms of presence and distribution of trabeculated myocardium in healthy adults and determine if any association exist between the presence and extension of trabeculated myocardium and cardiac function.
16

Couplage de l'acquisition compressée et de l'imagerie du spectre de diffusion

Saint-Amant, Etienne January 2011 (has links)
Ce mémoire porte sur la croisée des chemins de deux technologies récentes et fascinantes : l'imagerie du spectre de diffusion et l'acquisition compressée. L'imagerie du spectre de diffusion est issue de l'imagerie par résonance magnétique nucléaire. Elle permet d'observer la façon dont les molécules d'eau se déplacent dans le cerveau. Les molécules d'eau sont contraintes par la riche géométrie cellulaire des tissus cérébraux et les caractéristiques les plus probantes de cette géométrie peuvent être observées. En particulier, la diffusion est intimement liée à l'aspect fibreux de la matière blanche. L'information angulaire et l'information radiale de la matière blanche peuvent être déduites mathématiquement en analysant le signal du spectre de diffusion. À l'aide de ces informations, nous pouvons reconstruire le réseau de matière blanche du cerveau d'un patient (par tractographie) et en analyser l'intégrité (taille d'axone, démyélinisation, mort axonale). Cependant, la précision d'une technologie apporte souvent un défaut : son temps d'acquisition en tunnel IRM est prohibitif. L'acquisition compressée est une technologie récente, riche et complexe, issue de nombreuses branches différentes des mathématiques. Cette technologie peut s'appliquer sur l'acquisition de tous les types de signaux ou images. L'idée est d'acquérir de façon partielle les données et de résoudre un problème mathématique pour déduire quelle serait l'information complète (on déduit les données non mesurées). L'entièreté de cette technologie repose sur le principe fondamental suivant : les signaux/images d'intérêt ont la propriété d'être compressibles dans certaines bases de représentations. Cette technologie est particulièrement intéressante quand le temps d'acquisition est crucial ou que le nombre de mesures d'acquisition se doit d'être limité. Le sujet central de ce mémoire est de combiner l'acquisition compressée à l'imagerie du spectre de diffusion pour accélérer l'examen en tunnel IRM. Pour ce faire, nous avons développé une plate-forme informatique nous permettant d'analyser et de caractériser le couplage de ces deux technologies. Nous testons en détail nos méthodes sur des données générées synthétiquement et sur des données naturelles cérébrales in vivo. Finalement, nous proposons une méthode d'acquisition qui ferait passer le temps d'acquisition de 105 minutes à 29 minutes sans trop de perte perceptuelle par rapport à l'imagerie du spectre de diffusion acquise de façon exhaustive. Nous concluons avec un ensemble de pistes de solution pour pousser encore plus loin l'accélération de l'acquisition.
17

Reconnaissance et stabilité d'une mémoire épisodique influencée par les émotions artificielles pour un robot autonome

Leconte, Francis January 2014 (has links)
Les robots de service devront répondre aux besoins d'humains au quotidien. Nos milieux de vie diffèrent par leur configuration, les conditions environnementales, les objets qui s'y trouvent, les personnes présentes et les événements pouvant y survenir. Un grand défi de la robotique autonome est de permettre aux robots de s'adapter à n'importe quelle situation tout en étant efficace et sécuritaire dans l'exécution de tâches. À cette fin, une mémoire épisodique a le rôle d'emmagasiner et de classer les expériences d'un agent intelligent en lien avec les éléments du contexte spatio-temporel d'apprentissage. Ainsi, une mémoire épisodique s'avère un élément essentiel pour permettre au robot de mémoriser ses expériences dans le but de les réutiliser lors de situations similaires. Toutefois, pour qu'une mémoire épisodique puisse être utilisée par un robot autonome, elle doit pouvoir exploiter l'information provenant de capteurs asynchrones et bruités. De plus, elle doit pouvoir être influencée différemment selon l'importance des expériences vécues. Le but de ce projet de recherche est de concevoir et d'intégrer à un robot mobile une mémoire épisodique construite à partir d'un apprentissage non supervisé et qui favorise la mémorisation des expériences les plus pertinentes afin d'améliorer l'efficacité du robot dans l'exécution de sa tâche. À la base, l'approche repose sur des réseaux de neurones utilisant la Théorie de résonance adaptative (ART, pour Adaptive Resonance Theory). Deux réseaux ART sont placés en cascade afin de catégoriser, respectivement, les contextes spatiaux, appelés événements, et les séquences d'événements, appelées épisodes. Le modèle résultant, EM-ART (Episodic Memory-ART), utilise un module d'émotions artificielles afin d'influencer la dynamique d'apprentissage et d'utilisation des réseaux ART en favorisant la mémorisation et le rappel des expériences associées à de fortes intensités émotionnelles. Le rappel d'épisodes permet de prédire et d'anticiper les événements futurs, contribuant à améliorer l'adaptabilité du robot pour effectuer sa tâche. EM-ART est validé sur le robot IRL-1/TR dans un scénario de livraison d'objets. Les expérimentations réalisées en milieu réel permettent d'isoler les caractéristiques du modèle telles que la prédiction d'événements, la création d'épisodes et l'influence des émotions. Des simulations construites à partir de données réelles permettent aussi d'observer l'évolution de la structure du modèle sur une plus grande période de temps et dans des séquences différentes. Les résultats démontrent que le modèle EM-ART permet une récupération d'épisodes plus hâtive lorsque ceux-ci sont associés à une intensité émotionnelle élevée, permettant à IRL-1/TR d'utiliser la destination de sa dernière livraison pour accomplir la livraison en cours. Selon la séquence des expériences soumis au modèle, un plus grand nombre d'épisodes est créé si les premières expériences ne sont pas associées à des émotions élevées, puisqu'ils sont négligées en mémoire au détriment de la création de nouveaux épisodes plus distinctifs. Il en résulte une capacité faisant évoluer l'intelligence du robot à celle d'une entité capable d'apprendre de ses expériences évaluées selon sa propre perspective.
18

Biocapteurs à champ évanescent : synthèse et caractérisation optique de constructions moléculaires sur substrats solides.

Hamel, Raymond Jr January 2013 (has links)
Depuis plusieurs années, une attention toute particulière a été portée à la conception de biocapteurs. Divers types ont été développés (ex. optiques, électriques) et ont mené à une multitude d’applications. On en retrouve désormais dans des champs d’applications aussi variés que la détection d’explosifs et de toxines, la sécurité alimentaire, la détection et le dosage de polluants environnementaux ou la santé. Le développement de telles technologies se base sur l’union de deux domaines scientifiques très différents. D’un côté, la partie « capteur » est conçue en utilisant des méthodes de microfabrication. Ces dernières font appel à l’emploi de composés inorganiques (ex. métaux, matériaux semi-conducteurs, verre et autres). De l’autre côté, on retrouve un assemblage de molécules organiques, protéines, enzymes ou récepteurs issus du domaine biologique. L’un des grands défis est d’unir la portion biologique au capteur (c.-à-d. substrat) sans altérer les propriétés de ces deux composants. Plusieurs méthodes sont envisageables pour arriver à coupler le matériel biologique au substrat. L’objectif de la recherche de cette thèse est d’étudier la liaison de molécules sur un substrat et de créer un système biologique servant comme système de détection pour un biocapteur. Le modèle choisi pour établir le concept de base est l’affinité variable entre l’avidine et la 2-iminobiotine. Il est connu que l’affinité de l’avidine à l’iminobiotine peut être modifiée en changeant les conditions de pH. La liaison formée en milieu basique sera affaiblie en milieu acide menant à la séparation de la protéine et du ligand. Contrairement à l’iminobiotine, la biotine possède un lien fort et stable avec l’avidine impossible à briser dans des conditions non dénaturantes. L’avidine étant une protéine tétramérique, quatre ligands peuvent s’y lier. On profite donc de cette propriété pour lier l’avidine à un bras polymérique, une chaine de polyéthylène glycol (PEG) comprenant une biotine, lui-même attaché à la surface. Ce bras, maintenant fonctionnalisé, devra permettre de garder près de la surface une avidine, lui permettant de se lier à des iminobiotine aussi attachées en surface ou s’en délier selon les conditions de pH. La première partie de cette thèse est consacrée à la fonctionnalisation des surfaces. La première étape de la construction a été de faire un attachement pour créer une couche de molécules qui serviront de support et d’ancrage au mécanisme moléculaire du biocapteur. L’attachement de molécules étant réalisable sur les surfaces désignées, une construction a été testée. La stratégie proposée consistait en l’utilisation d’une molécule bifonctionnelle en forme de « Y ». Cette molécule a été synthétisée spécifiquement pour l’attachement en deux étapes successives des deux composantes du système moléculaire modulable en pH. Sur la première branche se trouve une iminobiotine. La seconde a été prévue afin d’y attacher le bras polymérique. Cette construction a été faite et testée par SPR. Enfin, une seconde stratégie de construction a été étudiée. Celle-ci impliquait l’utilisation d’une protéine (albumine de sérum bovin, BSA) modifiée comme base de la construction. Une première BSA a été modifiée avec de l’iminobiotine tandis qu’une seconde avec le PEG. Ces deux protéines modifiées ont été mises ensemble en solution et déposées sur un substrat SPR. Elles constituent ensemble les deux morceaux du système précédemment mentionné. L’objectif de cette stratégie était de contrôler la quantité relative des espèces nécessaires en surface de façon à obtenir un signal SPR optimal. De plus, la présence de ces protéines en surface devait bloquer l’adsorption non spécifique sur cette dernière d’espèces non désirées.
19

Développement d'un biocapteur couplant la résonance des plasmons de surface et la microcalorimétrie pour le suivi des intéractions moléculaires à l'interface liquide/solide

Béland, Rémy January 2014 (has links)
Dans un avenir proche, les dispositifs de détection médicaux miniaturisés en temps réels (lab-on-chip) seront au centre de la révolution des méthodes de diagnostics médicaux et d’identification des processus biologiques et cela, autant au niveau clinique qu’au niveau de la recherche. Pour y arriver, il est important de développer des chimies de surface stables et spécifiques, ce qui demande une compréhension des interactions intermoléculaires à l’interface liquide/solide. Pour bien comprendre ces interactions, il est important de développer des instruments adaptés à la mesure près de l’interface liquide/solide des différentes caractéristiques à identifier. Ce projet de recherche présente la conception, la fabrication et les expériences tests d’un capteur multimodal pour l’identification de processus biologiques à l’interface basés sur des technologies de résonance des plasmons de surface (SPR) et de microcalorimétrie. Ces deux technologies mises ensemble vont permettre d’effectuer des mesures de la cinétique des interactions ainsi que des caractéristiques thermodynamiques. En premier lieu, les caractéristiques d’une interaction intermoléculaire à l’interface d’une réaction d’hybridation d’ADN furent définies afin d’en déduire un cahier des charges pour les transducteurs. Suite à cela, la conception des transducteurs microcalorimétriques et SPR furent réalisés en tenant compte des contraintes de chacun des transducteurs. Suite à la conception théorique des différentes parties du capteur, un procédé de fabrication compatible avec les méthodes de fabrication standard de la microélectronique fut défini et testé. Afin de s’assurer de la fonctionnalité des dispositifs ainsi fabriqués, des tests de fonctionnalisation de surface furent appliqués sur les échantillons afin de tester la compatibilité du procédé de fonctionnalisation avec les méthodes de fabrication et avec une chimie de surface type. Pour terminer, un système de mélange actif fut testé et caractérisé avec le dispositif de microcalorimétrie afin de s’assurer qu’il était possible de mélanger les fluides avec les produits biologiques pour s’assurer de la qualité de la réaction de surface. Le système développé pourra être utilisé pour effectuer la mesure d’hybridation d’ADN à l’interface. Le système intègre deux modalités permettant la caractérisation en temps réel des interactions intermoléculaires à l’interface liquide/solide. Ce type de système permet la mesure de la cinétique de différents modèles biologiques tels que les puces à sucre encore certains récepteurs cellulaires ou la mesure de conformation moléculaire à l’interface. Des mesures d’oxydation du glucose catalysée par la glucose oxydase sont montrées.
20

Etude par calorimétrie à titrage isotherme (ITC) et spectroscopie de résonance magnétique nucléaire (RMN) des équilibres de protonation liés à l'interaction entre l'alpha-chymotrypsine et la proflavine

Bruylants, Gilles 16 December 2005 (has links)
Le nombre de cibles potentielles pour la conception de nouvelles molécules à activité thérapeutique ne cesse de croître. Pour chaque cible, il est nécessaire d’identifier des molécules actives et de les optimiser afin d’atteindre l’affinité et la sélectivité recherchées. Ces nouveaux défis accentuent la nécessité d’améliorer notre compréhension des facteurs qui mènent à la reconnaissance moléculaire entre une drogue potentielle et une macromolécule biologique, et particulièrement des facteurs énergétiques à la base de la stabilisation d’un complexe d’interaction. Dans le cadre de ce travail, nous nous sommes intéressés à l’effet que pouvaient avoir les équilibres de protonation/déprotonation des résidus ionisables d’une protéine sur les paramètres thermodynamiques caractérisant la complexation d’un ligand. Dasns ce but, nous avons étudié l’interaction entre l’α-chymotrypsine et un de ses inhibiteurs compétitifs, la proflavine. Cette protéine est représentative d’un nombre important d’enzymes présentant le même mécanisme catalytique. La compréhension des facteurs qui régissent les équilibres de protonation/déprotonation des résidus ionisables présents dans son site actif ainsi que de l’effet sur ceux-ci de l’interaction avec des ligands est d’une importance primordiale pour le développement d’inhibiteurs plus sélectifs de ces protéases. Cette étude s’est essentiellement composée de trois volets. (i) La réalisation d’un modèle du complexe d’interaction afin de confronter des données structurales aux données expérimentales recueillies. (ii) L’étude de l’interaction entre l’α-chymotrypsine et la proflavine par spectroscopie de Résonance Magnétique Nucléaire (RMN) afin de mettre en évidence les résidus ionisables dont les équilibres de protonation/déprotonation sont influencés par la complexation du ligand. (iii) L’étude de la thermodynamique de l’interaction par Calorimétrie à Titrage Isotherme (ITC) et spectroscopie d’absorption en fonction de l’état d’ionisation des résidus identifiés par l’étude RMN. Le modèle du complexe d’interaction entre l’α-chymotrypsine et la proflavine a été réalisé sur base de la structure cristallographique du complexe entre cet inhibiteur et une protéase apparentée à la chymotrypsine, la thrombine. Il ressort de l’analyse du modèle obtenu que la proflavine est profondément enfouie dans le subsite S1 de l’enzyme et présente une très grande complémentarité de surface avec cette poche hydrophobe. Nous avons également pu constater la présence de plusieurs molécules d’eau immobilisées au sein du complexe, et d’une molécule en particulier faisant office de relais de liens-H. L’étude de l’interaction entre l’α-chymotrypsine et la proflavine par RMN du 1H a été précédée par une étude de l’effet du degré de maturité de l’enzyme sur les interactions liant les différents résidus composant la triade catalytique (Asp102, His57 et Ser195). Lors de l’activation du précurseur inactif de l’enzyme, le chymotrypsinogène, vers la forme mature, l’α-chymotrypsine, il semble en effet que le lien-H entre le NHε2 de l’His57 et le Oγ de la Ser195 soit affaibli, contrairement à celui qui relie le NHδ1 de cette même histidine au Oδ1 de l’Asp102. Nous rapportons pour la première fois l’observation de l’influence de la protonation de l’Asp102 sur les déplacements chimiques des protons NHδ1 et NHε2 de l’His57. L’étude de l’interaction entre l’α-chymotrypsine et la proflavine par RMN, nous a permis de mettre en évidence l’effet de la complexation du ligand sur l’état d’ionisation des résidus His57 et Asp102 de la triade catalytique, les pKa de ces résidus dans l’enzyme libre valant respectivement 7 et approximativement 4. Les paramètres thermodynamiques de l’interaction α-chymotrypsine - proflavine et des différents équilibres de protonation/déprotonation qui y sont liés ont été obtenus par spectroscopie d’absorption et ITC. Cette dernière technique constitue un outil précieux pour l’étude d’interactions moléculaires car il s’agit de la seule technique expérimentale permettant la mesure directe de l’enthalpie d’interaction. Lorsque des équilibres de protonation/déprotonation sont thermodynamiquement liés à l’interaction, il s’agit également de la seule technique permettant la quantification de ces effets. En mesurant la constante d’affinité et l’enthalpie d’interaction observées à différents pH et dans différents tampons, nous avons pu, sur base du modèle obtenu par RMN, déterminer les paramètres thermodynamiques intrinsèques des différents équilibres. La corrélation entre les données thermodynamiques obtenues par ITC et spectroscopie d’absorption et les données structurales obtenues par RMN et sur base de l’analyse du modèle du complexe d’interaction, nous a permis de rationaliser les facteurs à la base de l’interaction préférentielle de l’inhibiteur avec une des formes de l’enzyme. L’interaction entre l’α-chymotrypsine et la proflavine est la plus favorable lorsqu’à la fois l’His57 et l’Asp102 sont déprotonnés. Cette interaction est caractérisée par un terme enthalpique favorable et un terme entropique légèrement défavorable. Ce dernier terme s’expliquerait en partie par l’immobilisation dans le site d’interaction de plusieurs molécules d’eau. L’affinité entre l’α-chymotrypsine et la proflavine diminue lorsque l’His57 se protonne. La répulsion électrostatique entre les charges positives de la proflavine et de l’His57 est vraisemblablement un des facteurs permettant d’expliquer cette diminution de la constante d’affinité. Nous n’avons pu mettre en évidence d’interaction entre ces deux molécules dès lors que l’Asp102 est protonné, malgré que ce résidu soit situé relativement loin de la proflavine dans le complexe. Il s’agit donc d’un effet indirect, probablement relayé par l’His57. Tant que l’Asp102 est déprotonné, sa charge négative compenserait la charge positive de l’His57 et réduirait la répulsion électrostatique avec la proflavine, ce qui n’est plus le cas lorsque l’aspartate se protonne.

Page generated in 0.0556 seconds