• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 25
  • 18
  • 7
  • 2
  • Tagged with
  • 93
  • 68
  • 23
  • 23
  • 18
  • 12
  • 10
  • 9
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Applications du tomodensitomètre à double énergie en radio-oncologie

Lapointe, Andréanne 04 1900 (has links)
No description available.
82

Effect of visual cues and outcome feedback on physics problem solving in an online system

Weliweriya Liyanage, Nandana January 1900 (has links)
Master of Science / Physics / Nobel S. Rebello / With the progressive development of the educational technology, online learning systems are becoming a prominent feature in education today. We conducted a study to explore the effects of visual cues and outcome feedback on learning experience of students in an online environment. Our study was a follow up study to a previous research, which demonstrated the effectiveness of visual cues and feedback to improve physics problem solving. The participants (N=164) were enrolled in an algebra-based introductory level physics course at a U.S. Midwestern University. Participants completed a sequence of conceptual physics problems in an online environment. The study used a between subjects 2×2 quasi experimental design. Two groups of participants received visual cues and two did not receive cues. Two of the groups of participants received outcome feedback and two did not receive feedback. The effect of visual cues, feedback and their combination on the correctness of students’ responses to the online questions was analyzed. Implications of the study for online learning systems are discussed.
83

Opérateurs de Heun, ansatz de Bethe et représentations de \(su(3)\)

Shaaban Kabakibo, Dounia 12 1900 (has links)
Le présent mémoire contient deux articles reliés par le formalisme de l'ansatz de Bethe. Dans le premier article, l'opérateur de Heun de type Lie est identifié comme une spécialisation de la matrice de transfert d'un modèle de \(BC\)-Gaudin à un site dans un champ magnétique. Ceci permet de le diagonaliser à l'aide de l'ansatz de Bethe algébrique modifié. La complétude du spectre est démontrée en reliant les racines de Bethe aux zéros des solutions polynomiales d'une équation différentielle de Heun inhomogène. Le deuxième article aborde le sujet des représentations irréductibles de l'algèbre de Lie \(su(3)\) dans la réduction \(su(3) \supset so(3) \supset so(2)\). Cette manière de construire les représentations irréductibles de \(su(3)\) porte une ambiguïté qui empêche de distinguer totalement les vecteurs de base, ce qui mène à un problème d'étiquette manquante. Dans cet esprit, l'algèbre des deux opérateurs fournissant cette étiquette est examinée. L'opérateur de degré 4 dans les générateurs de \(su(3)\) est diagonalisé en se servant des techniques de l'ansatz de Bethe analytique. / This Master’s thesis contains two articles linked by the formalism of the Bethe ansatz. In the first article, the Lie-type Heun operator is identified as a specialization of the transfer matrix of a one-site BC-Gaudin model in a magnetic field. This allows its diagonalization by means of the modified algebraic Bethe ansatz. The completeness of the spectrum is proven by relating the Bethe roots to the zeros of the polynomial solutions of an inhomogeneous differential Heun equation. The second article deals with the subject of irreducible representations of the Lie algebra su(3) in the reduction su(3) ⊃ so(3) ⊃ so(2). This way of constructing the irreducible representations of su(3) carries an ambiguity in distinguishing the basis vectors, also known as a missing label problem. In this spirit, the algebra of the two operators providing the missing label is examined. The operator of degree 4 in the generators of su(3) is diagonalized using the techniques of the analytical Bethe ansatz.
84

Hiérarchie de fusion et systèmes T et Y pour le modèle de boucles diluées \(A_2^{(2)}\) sur le ruban

Boileau, Florence 02 1900 (has links)
Le modèle de boucles diluées \(A_2^{(2)}\) est étudié pour la géométrie d'un ruban de taille \(N\). Deux familles de conditions frontières sont connues pour satisfaire l’équation de Yang-Baxter à la frontière. Fixer ces conditions aux deux bouts du ruban donne un total de quatre modèles. Pour chaque modèle, les matrices de transfert, qui commutent entre elles, sont connues. Dans ce mémoire, la hiérarchie de fusion des matrices de transfert et les systèmes T et Y sont construits pour chaque modèle et pour un paramètre de croisement \(\lambda\) générique. Pour \(\lambda/\pi\) rationnel, il est prouvé qu'il existe une relation linéaire entre les matrices fusionnées qui ferme la hiérarchie de fusion en un système fini. Les relations de fusion et de fermeture permettent de calculer les premiers termes d'une expansion de l'énergie libre lorsque \(N\) est grand. Ces premiers termes correspondent à l'énergie libre de bulk et de bord. Les résultats analytiques sont en accord avec des résultats numériques obtenus pour de petits \(N\). Ce mémoire complète une étude des modèles \(A_2^{(2)}\) avec des conditions frontières périodiques (A. Morin-Duchesne, P.A. Pearce, J. Stat. Mech. (2019)). / We study the dilute \(A_2^{(2)}\) loop models on the geometry of a strip of width \(N\). Two families of boundary conditions are known to satisfy the boundary Yang-Baxter equation. Fixing the boundary condition on the two ends of the strip leads to four models. We construct the fusion hierarchy of commuting transfer matrices for the model as well as its T- and Y-systems, for these four boundary conditions and with a generic crossing parameter \(\lambda\). For \(\lambda/\pi\) rational we prove a linear relation satisfied by the fused transfer matrices that closes the fusion hierarchy into a finite system. The fusion relations allow us to compute the two leading terms in the large-\(N\) expansion of the free energy, namely the bulk and boundary free energies. These are found to be in agreement with numerical data obtained for small \(N\). The present work complements a previous study (A. Morin-Duchesne, P.A. Pearce, J. Stat. Mech. (2019)) that investigated the dilute \(A_2^{(2)}\) loop models with periodic boundary conditions.
85

Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatique

Chemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge. Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur. L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE). L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts. The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer. The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE). The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
86

Modélisation radiobiologique pour la planification des traitements en radiothérapie à partir de données d’imagerie spécifiques aux patients

Trépanier, Pier-Yves 07 1900 (has links)
Un modèle de croissance et de réponse à la radiothérapie pour le glioblastome multiforme (GBM) basé le formalisme du modèle de prolifération-invasion (PI) et du modèle linéaire-quadratique a été développé et implémenté. La géométrie spécifique au patient est considérée en modélisant, d'une part, les voies d'invasion possibles des GBM avec l'imagerie du tenseur de diffusion (DTI) et, d'autre part, les barrières à la propagation à partir des images anatomiques disponibles. La distribution de dose réelle reçue par un patient donné est appliquée telle quelle dans les simulations, en respectant l'horaire de traitement. Les paramètres libres du modèle (taux de prolifération, coefficient de diffusion, paramètres radiobiologiques) sont choisis aléatoirement à partir de distributions de valeurs plausibles. Un total de 400 ensembles de valeurs pour les paramètres libres sont ainsi choisis pour tous les patients, et une simulation de la croissance et de la réponse au traitement est effectuée pour chaque patient et chaque ensemble de paramètres. Un critère de récidive est appliqué sur les résultats de chaque simulation pour identifier un lieu probable de récidive (SPR). La superposition de tous les SPR obtenus pour un patient donné permet de définir la probabilité d'occurrence (OP). Il est démontré qu'il existe des valeurs de OP élevées pour tous les patients, impliquant que les résultats du modèle PI ne sont pas très sensibles aux valeurs des paramètres utilisés. Il est également démontré comment le formalisme développé dans cet ouvrage pourrait permettre de définir un volume cible personnalisé pour les traitements de radiothérapie du GBM. / We have developed and implemented a model of growth and response to radiotherapy for glioblastoma multiforme (GBM) based on the proliferation-invasion (PI) formalism and linear-quadratic model. We take into account patient-specific geometry to model the possible invasion pathways of GBM with diffusion tensor imaging (DTI) and the barriers to dispersal from anatomical images available. The actual dose distribution received by a given patient is applied as such in the simulation, respecting the treatment schedule. The free parameters in the model (proliferation rate, diffusion coefficient, radiobiological parameters) are randomly chosen from a distribution of plausible values. A total of 400 sets of values for the free parameters are thus chosen for all patients, and a simulation of the growth and the response to treatment is performed for each patient and each set of parameters. A failure criterion is applied to the results of each simulation to identify a site of potential recurrence (SPR). The superposition of all SPR obtained for a given patient defines the occurrence probability (OP). We show that high OP values exist for all patients and conclude that the PI model results are not very sensitive to the values of the parameters used. Finally, we show how the formalism developed in this work could help to define a custom target volume for radiation treatment of GBM.
87

Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiques

Nassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised. In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET. Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we : developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions. developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies. Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
88

Développement d'un outil d'identification des paires d'électron-positron provenant de bosons Z à haute impulsion basé sur l'étude de la sous-structure des gerbes électromagnétiques au LHC

Lefebvre, Chloé 04 1900 (has links)
Lorsqu'un boson Z de haute impulsion se désintègre en paire e+e-, l'électron et le positron laissent des traces très rapprochées l'une de l'autre, ce qui rend la reconstruction de ce processus peu efficace. L'identification de signature leptoniques d'évènements massifs issus de théories telles l'extension du groupe de jauge électrofaible SU(2)_1 x SU(2)_2 x U(1) pour ajouter des bosons massifs W' et Z' se couplant directement aux bosons vectoriels et aux fermions du modèle standard est important dans l'optique de recherche de nouvelle physique puisque les états finaux leptoniques fournissent le canal de détection de plus pur. Ici, un outil d'identification des paires d'électron-positron issues de bosons Z à haute impulsion basé uniquement sur les variables décrivant les jets est développé en se basant sur des simulations d'évènements massifs produits dans le détecteur ATLAS du LHC au CERN. Une étude topologique des évènements candidats est portée dans un ensemble d'échantillons Monte Carlo. Une série de coupures rectangulaires est optimisée sur un échantillon de bosons Z produits avec une haute impulsion. L'efficacité de reconstruction des paires d'électron-positron est maximisée. Cinq sources de bruit de fonds ont été soumises aux critères de sélection pour l'étude de la suppression du bruit de fonds. Finalement l'outil développé est comparé à l'identification de paires d'électron-positron basé sur la reconstruction usuelle d'objets leptoniques au LHC. Cette comparaison met en évidence le gain significatif de l'outil développé, atteignant une efficacité de reconstruction de 93% dans des échantillons Monte Carlo à haute énergie, avec un bruit de fond négligeable. / When a Z boson with high transverse momentum desintegrates into an e+e- pair, the electron and the positron leave nearly superimposed tracks which makes the detection process very difficult. The identification of massive events arising from theories like the extension of the electroweak gauge group SU(2)_1 x SU(2)_2 x U(1) leading to the existence of massive W' and Z' bosons coupling directly to standard model vector bosons and fermions is more readily performed through leptonic channel. Here, a series of rectangular cuts comprising a purely jet substructure based electron positron pair arising from the decay of a Z boson identification in boosted topologies (p_T(Z)>1TeV) is presented. The selection process of the cuts is done through a topology study of candidate events in various Monte Carlo simulation samples. The reconstruction efficiency of the electron-positron pairs is maximised. Five background sources were tested against the selection criteria to study the background rejection efficiency of the methodology. Finally, it is found that the reconstruction tool developped nearly triples electron positron identification, reaching 93% efficiency in high energy Monte Carlo samples, with insignificant background noise.
89

Plateforme numérique de tomodensitométrie et ses applications en radiothérapie

Delisle, Étienne 04 1900 (has links)
Les quantités physiques des tissus imagés par tomodensitométrie peuvent être calculées à l’aide d’algorithmes de caractérisation de tissus. Le développement de nouvelles technologies d’imagerie par tomodensitométrie spectrale a stimulé le domaine de la caractérisation de tissus à un point tel qu’il est maintenant difficile de comparer les performances des multiples algorithmes de caractérisation de tissus publiés dans les dernières années. De même, la difficulté à comparer les performances des algorithmes de caractérisation de tissus rend leur utilisation dans des projets de recherche clinique difficile. Ce projet a comme but de créer un environnement de simulation robuste et fidèle à la réalité dans lequel des techniques de caractérisation de tissus pourront être développées et comparées. De plus, la librairie de calcul servira comme tremplin pour facilement appliquer des méthodes de caractérisation de tissus dans des collaborations cliniques. En particulier, une des méthodes de caractérisation de tissus incluse dans la librairie de calcul sera appliquée sur des données cliniques pour produire des cartes de concentration d’iode dans le cadre d’un projet de recherche sur la récurrence de cancers otorhinolaryngologiques. De surcroît, deux autres techniques de caractérisation de tissus et un algorithme de correction d’artefacts de durcissement de faisceau seront implémentés dans la librairie de calcul scientifique. Conjointement, un module pour la simulation de patients virtuels sera dévelopé et intégré à la librairie de calcul. / The physical quantities of tissues imaged by computed tomography can be calculated using tissue characterization algorithms. The development of new spectral computed tomography scanners stimulated the field of tissue characterization to such an extent that it is now difficult to compare the performances of the multiple tissue characterization algorithms available in the literature. In addition, the difficulty in comparing the tissue characterization algorithms’ performances makes it difficult to include them in clinical research projects. The goal of this project is to create a robust and physically accurate simulation environment in which tissue characterization algorithms can be developed and compared. Furthermore, the scientific computing library will serve as a springboard to easily apply tissue characterization methods in clinical collaborations. In particular, one of the tissue characterization methods included in the scientific computing library will be applied on clinical data to produce iodine concentration maps for a clinical research project on head and neck cancer recurrence. Moreover, two additional tissue characterization algorithms and a technique for the correction of beam hardening artefacts will be implemented in the scientific computing library. Coincidentally, the virtual patient simulation environment will be developed.
90

Étude par simulation numérique de la sensibilité au bruit des mesures de paramètres pharmacocinétiques par tomographie par émission de positrons

Aber, Yassine 08 1900 (has links)
La modélisation pharmacocinétique en tomographie par émission par positrons (TEP) permet d’estimer les paramètres physiologiques liés à l’accumulation dynamique d’un radiotraceur. Les paramètres estimés sont biaisés par le bruit dans les images TEP dynamiques durant l’ajustement des courbes d’activité des tissus, plus communément appelées TAC de l’anglais Time Activity Curve. La qualité des images TEP dynamiques est limitée par la statistique de comptage et influencée par les paramètres de reconstruction choisis en termes de résolution spatiale et temporelle. Il n’existe pas de recommandations claires pour les paramètres de reconstruction à utiliser pour les images dynamiques TEP. L’objectif de ce projet de maitrise est d’évaluer le biais dans l’estimation des paramètres pharmacocinétiques afin de trouver les paramètres de reconstruction TEP les plus optimaux en termes de résolution spatiale et de niveau de bruit. Plus précisément, ce projet cherche à déterminer quel modèle d’AIF offre les meilleurs ajustements, mais aussi quel modèle de poids permet la meilleure estimation des paramètres pharmacocinétiques pour le modèle à deux compartiments. Ce faisant, il serait possible de mieux planifier la reconstruction d’images TEP dynamique et potentiellement améliorer leur résolution spatiale. Afin de tester les biais dans les paramètres pharmacocinétiques sous différents niveaux de bruit, un objet de référence numérique (DRO) avec les informations trouvées dans la littérature sera construit. Ensuite, des simulations numériques seront effectuées avec ce DRO afin de trouver les paramètres de reconstruction et le niveau de bruit le plus optimal. Un biais réduit des paramètres pharmacocinétiques et une meilleure résolution spatiale des images TEP dynamique permettrait de détecter des cancers ou tumeurs à des stades moins avancés de la maladie, permettant potentiellement un traitement plus efficace et avec moins de séquelles et d’effets secondaires pour les patients. En outre, cela permettrait aussi de visualiser l’hétérogénéité des tumeurs. / Pharmacokinetic models in positron emission tomography (PET) allow for the estimation of physiological parameters linked to the dynamic accumulation of a radiotracer. Estimated parameters are biased by noise in dynamic PET images during the fitting of Time Activity Curves (TAC). Image quality in dynamic PET is limited by counting statistics and influenced by the chosen reconstruction parameters in terms of spatial and temporal resolution. Clear recommendations and guidelines for the reconstruction parameters that should be used do not exist at the moment for dynamic PET. The goal of this masters project is to evaluate the bias in the pharmacokinetic parameters estimation to find the optimal PET reconstruction parameters in terms of spatial resolution and noise levels. More precisely, this project aims to determine which AIF model produces the best fits, but also which weight noise model allows for the best parameters estimation with the two compartment model. It would then be possible to plan the PET image reconstruction more finely and potentially improve spatial resolution. To test the pharmacokinetic parameters’ biases under different noise levels, a Digital Reference Object (DRO) with information and specifications found from the litterature will be built. Then, numerical simulations will be done with that DRO to find the optimal noise level and value for the pharmacokinetic parameter. A reduced bias in these parameters and an improved spatial resolution would allow the detection of tumors or lesions at earlier stages, which could potentially allow for a more potent treatment with less short and long term side effects. It would also allow the visualization and quantification of lesion heterogeneity.

Page generated in 0.0166 seconds