• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 19
  • 7
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Image Reconstruction From a Simulated Compton Imaging Detector Using List-Mode Likelihood Methods

Winroth, Hjalmar, Nordmark, Tove January 2024 (has links)
Traditionally, medical imaging techniques such as PET (positron emission tomography) and SPECT (single-photon emission computed tomography) have relied on mechanical collimators to detect the sources of photons. This limits the image's resolution and field of view. To improve upon this, Compton cameras have emerged as a promising alternative. The principle is to measure the angle of a photon scattered in the detector, which indicates the likely sources in the form of a cone culminating in the position of the interaction. The cones from multiple events may be superimposed in order to generate an image. The object of this work is to use list-mode likelihood methods to better reconstruct the source image from the data recorded by a simulated Compton camera in the case of a solid detector volume with good spatial- and energy resolution.  The results demonstrate an improvement of image quality for reconstructions of single point source and multiple extended sources. In addition, the results indicate that our used algorithm converges for point sources. The minimum number of measured events for accurate reconstruction for different source distributions remains to be determined, and the algorithm's ability to resolve closely adjacent sources should be investigated more.
12

Optimisation of image acquisition and reconstruction of 111In-pentetrotide SPECT / Optimering av bildinsamling samt rekonstruktion för 111In-pentetrotide SPECT

Holmberg, Daniel January 2012 (has links)
The aim of this study is to optimise the acquisition and reconstruction for SPECT with 111In- pentetrotide with the iterative reconstruction software OSEMS. For 111In-pentetrotide SPECT, the uptake in the tumour is usually high compared to uptake in normal tissue. It may, however, be difficult to detect small tumours with the SPECT method because of high noise levels and the low spatial resolution. The liver is a common region for somatostatin-positive metastases, and to visually detect small tumours in the liver, as early as possible, is important for an effective treatment of the cancer disease. The study concentrates on the acquired number of projections, the subset size in the OSEM reconstruction and evaluates contrast as a function of noise for a range of OSEM iterations. The raw-data projections are produced using Monte Carlo simulations of an anthropomorphic phantom, including tumours in the liver. Two General Electric (GE) collimators are evaluated, the extended low-energy general-purpose (ELEGP) and the medium energy general-purpose (MEGP) collimator. Three main areas of reconstruction are investigated. First the reconstructions are performed for so called full time scans with the acquisition time used clinically. Also the effect of performing the examination in half-time or with half the injected activity is evaluated with the most optimal settings gained from the full time scans for both collimators. In addition images reconstructed without model-based compensation are also included for comparison. This study is a continuation of a previous study on 111In-pentetrotide SPECT where collimator choice and model-based compensation were evaluated for a cylindrical phantom representing small tumours in liver background. As in the previous study, ELEGP proved to be the better collimator. For ELEGP, the most optimal setting was 30 projection angles and a subset size of 6 projections in the OSEM reconstruction, and for MEGP optimal setting was 60 projections and 4 subsets. The difference between the different collimator settings were, however, rather small but proven significant. For both collimators the half-time scan including model-based compensation was better compared to the full-time reconstructions without model-based compensation.
13

Anwendung von Maximum-Likelihood Expectation-Maximization und Origin Ensemble zur Rekonstruktion von Aktivitätsverteilungen beim Single Plane Compton Imaging (SPCI)

Kornek, Dominik 17 January 2020 (has links)
In der nuklearmedizinischen Bildgebung mit Anger-Kameras wird ein höheres Auflösungsvermögen durch Limitierung der Nachweiseffizienz erreicht. Compton Cameras können die Nachweiseffizienz mittels elektronischer Kollimation, die zur Ortsbestimmung die Compton-Kinematik anwendet, erhöhen. Ein alternativer Ansatz für die Konstruktion einer Compton Camera, die Streu- und Absorptionsebenen in einer Ebene kombiniert, wurde in der Vergangenheit untersucht. Die sogenannte Single Plane Compton Camera ist in der Lage, Punktquellen im Vakuum getrennt aufzulösen. Zur Darstellung komplexerer Bildinhalte wird die Optimierung der Bildrekonstruktion angestrebt. Diese umfasst ein umfängliches Verständnis des Messprinzips, das in dieser Arbeit dargelegt wird. Jeweils ein 3D-Rekonstruktionsalgorithmus wurde für konventionell gebinnte und List-Mode-Daten implementiert. Anhand eines vorliegenden Simulationsdatensatzes einer einfachen Detektorkonfiguration wurden Messdaten generiert und rekonstruiert. Es konnte gezeigt werden, dass aufgrund der hohen Zählstatistik ein robustes Signal-to-Noise-Ratio erhalten wird. List-Mode-Verfahren eignen sich aufgrund eines höheren Rechenaufwandes nicht. Die mittlere Ortsinformation der Ereignisse ist systembedingt gering und beeinträchtigt die Ortsauflösung, welche für E = 662 keV etwa 15 mm in einem Abstand von 50cmm beträgt. Eine Verbesserung der Auflösung ist durch die Algorithmen nicht möglich, sondern umfasst technische Maßnahmen, welche anhand dieser Arbeit in weiteren Studien umgesetzt werden können.:1 Einleitung 2 Single Plane Compton Imaging 3 Bildrekonstruktion beim Single Plane Compton Imaging 4 Materialien und Methoden 5 Ergebnisse 6 Diskussion 7 Zusammenfassung und Ausblick Literaturverzeichnis Abkürzungsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Selbstständigkeitserklärung A Herleitung des ML-EM Algorithmus B Tiefergehende Informationen zu OE C C++-Code für die Bildrekonstruktion beim SPCI / In nuclear medicine imaging, the Anger camera imposes a limit on the detection efficiency in order to improve the spatial resolution. The detection efficiency can be increased with electronically collimated systems known as Compton Cameras, which use the kinematics of Compton scattering to locate the detected events. An alternative approach to the design of a Compton Camera combining scatter and absorption planes was investigated in the past. It was shown that the so-called Single Plane Compton Camera is able to separately reconstruct two point sources in empty space. Further optimization is required to reconstruct more complex images. Thus, an extensive understanding of the measurement principle is provided. Two 3D-algorithms were implemented for binned data and list mode data. Measurement data were generated by means of an existing simulated data set of a simple detector design and reconstructed. It is shown that a robust signal-to-noise ratio can be achieved due to high numbers of detected counts. List mode algorithms produce high computational costs and binned algorithms may be used instead. The average position information is low and imposes a negative impact on the spatial resolution, which is about 15mm at a distance of 50mm for E = 662 keV. The implemented algorithms cannot increase the spatial resolution due to lack of precise position information. Therefore, future studies should focus on technical measures, which are given in this thesis.:1 Einleitung 2 Single Plane Compton Imaging 3 Bildrekonstruktion beim Single Plane Compton Imaging 4 Materialien und Methoden 5 Ergebnisse 6 Diskussion 7 Zusammenfassung und Ausblick Literaturverzeichnis Abkürzungsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Selbstständigkeitserklärung A Herleitung des ML-EM Algorithmus B Tiefergehende Informationen zu OE C C++-Code für die Bildrekonstruktion beim SPCI
14

Design Principles and Preliminary Actuation Approaches for Novel Multiple-Layer Lamina Emergent Mechanisms

Gollnick, Paul Shumway 13 October 2010 (has links) (PDF)
Multiple-layer Lamina Emergent Mechanisms (MLEMs) are mechanisms made from multiple sheets (lamina) of material with motion that emerges out of the fabrication plane. This study has shown that understanding how layers are used in existing products and in nature provides insight into how MLEMs can also use layers to achieve certain tasks. The multi-layered nature of MLEMs and the interactions between these layers are what enhance the capabilities of MLEMs and allow them to better meet design objectives. Layer separation is one objective for which MLEMs are well-suited. Layer separation can have a variety of applications and there are a number of different ways to design a MLEM to achieve this objective. Single-layer LEM and MLEM designs could greatly benefit from suitable actuation techniques; those that are consistent with the advantages of these mechanisms and could be incorporated into their design. This work presents shape memory alloys, piezoelectrics and dielectric elastomers as suitable ways of actuating LEMs and MLEMs. A number of novel MLEMs are presented throughout this thesis.
15

Optimisation du processus de développement du médicament grâce à la modélisation PK et les simulations d’études cliniques

Colucci, Philippe 12 1900 (has links)
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles. / Drug development is complex with results often differing from those anticipated or sought after. Despite technological advances in the many fields which are a part of drug development, there are still many drugs that fail in the late stages of clinical development. Indeed, the success rate of drugs reaching commercialization is declining. Improvements to the conventional drug process are therefore required in order to facilitate development and allow new medications to be provided more rapidly to patients who require them. The aim of this Ph.D. project was to explore and propose ways to improve this inefficient drug development process with the use of advanced modeling and clinical trial simulations. For the first part of this research, new algorithms available in ADAPT 5® were tested against other available algorithms in order to determine their potential strengths and weaknesses. The two new algorithms tested were the iterative two-stage and the maximum likelihood expectation maximization (MLEM) methods. Our results demonstrated that the MLEM algorithm was consistently better than the iterative two-stage algorithm. It was also comparable with the first order conditional estimate method available in NONMEM®, with significantly fewer shrinkage issues in the estimation of the variances. Therefore, these new tools were used for the clinical trial simulations performed during the course of this Ph.D. research. In order to calculate appropriate noncompartmental pharmacokinetic parameter estimates during the drug development process, it is essential that the terminal elimination half-life be well characterized. Properly conducted and analyzed pharmacokinetic studies are essential to any drug development plan, and even more so for generic and supergeneric (a formulation similar to the reference product, containing the same active ingredient; however differing from the original reference product it its delivery process) submission where they often are the only pivotal studies that need to be done to decide if a drug product is good or not. Thus, the purpose of the second part of the research was to determine if the pharmacokinetic (PK) parameters obtained from a subject whose half-life is calculated from a sampling scheme duration that is considered too short could bias the bioequivalence conclusions of a study and if these parameters should be removed from statistical analyses. Results demonstrated that subjects with a long half-life relative to the duration of the sampling scheme negatively influenced results when these were maintained in the analysis of variance. Therefore, these subjects should be removed from the analyses and guidelines to this effect are required a priori. Pivotal pharmacokinetic studies done within the drug development process should therefore follow this recommendation to make sure that the right decision be taken on a drug product formulation. This information was utilized with the clinical trial simulations that were subsequently performed in this research in order to ensure the most accurate conclusions. Finally, clinical trial simulations were used to improve the development process of a nonsteroidal anti-inflammatory drug. A supergeneric was being developed and results from a pilot study were promising. However, some results from the pilot study required closer attention to determine if the test and reference compounds were indeed equivalent and if the test compound would meet the equivalence criteria of the different required pivotal studies. Clinical trial simulations were therefore undertaken to address the multiple questions left unanswered by the pilot study and these suggested that the test compound would probably not meet the equivalence criteria. In addition, these results helped determine what modifications to the test drug would be required to meet the equivalence criteria. This research brought forward solutions to improve different aspects of the drug development process. Notably, clinical trial simulations reduced the number of studies that would have been done for a supergeneric, decreased the number of subjects unnecessarily exposed to a drug, lowered costs and helped established new criteria for the exclusion of subjects from analyses. Research conducted during this Ph.D. provided concrete ways to improve the drug development process by evaluating some newly available tools for compartmental analyses, setting standards stipulating which estimated PK parameters should be excluded from certain PK analyses and illustrating how clinical trial simulations are useful to throughout the process.
16

Development of stopping rule methods for the MLEM and OSEM algorithms used in PET image reconstruction / Ανάπτυξη κριτηρίων παύσης των αλγορίθμων MLEM και OSEM που χρησιμοποιούνται στην ανακατασκευή εικόνας σε PET

Γαϊτάνης, Αναστάσιος 11 January 2011 (has links)
The aim of this Thesis is the development of stopping rule methods for the MLEM and OSEM algorithms used in image reconstruction positron emission tomography (PET). The development of the stopping rules is based on the study of the properties of both algorithms. Analyzing their mathematical expressions, it can be observed that the pixel updating coefficients (PUC) play a key role in the upgrading process of the reconstructed image from iteration k to k+1. For the analysis of the properties of the PUC, a PET scanner geometry was simulated using Monte Carlo methods. For image reconstruction using iterative techniques, the calculation of the transition matrix is essential. And it fully depends on the geometrical characteristics of the PET scanner. The MLEM and OSEM algorithms were used to reconstruct the projection data. In order to compare the reconstructed and true images, two figures of merit (FOM) were used; a) the Normalized Root Mean Square Deviation (NRMSD) and b) the chi-square χ2. The behaviour of the PUC C values for a zero and non-zero pixel in the phantom image was analyzed and it has been found different behavior for zero and non-zero pixels. Based on this assumption, the vector of all C values was analyzed for all non-zero pixels of the reconstructed image and it was found that the histograms of the values of the PUC have two components: one component around C(i)=1.0 and a tail component, for values C(i)<1.0. In this way, a vector variable has been defined, where I is the total number of pixels in the image and k is the iteration number. is the minimum value of the vector of the pixel updating coefficients among the non-zero pixels of the reconstructed image at iteration k. Further work was performed to find out the dependence of Cmin on the image characteristics, image topology and activity level. The analysis shows that the parameterization of Cmin is reliable and allows the establishment of a robust stopping rule for the MLEM algorithm. Furthermore, following a different approach, a new stopping rule using the log-likelihood properties of the MLEM algorithm has been developed. The two rules were evaluated using the independent Digimouse phantom. The study revealed that both stopping rules produce reconstructed images with similar properties. The same study was performed for the OSEM algorithm and a stopping rule for the OSEM algorithm dedicated to each number of subset was developed. / Σκοπός της διατριβής είναι η ανάπτυξη κριτηρίων παύσης για τους επαναληπτικούς αλγόριθμους (MLEM και OSEM) που χρησιμοποιούνται στην ανακατασκευή ιατρικής εικόνας στους τομογράφους εκπομπής ποζιτρονίου (PET). Η ανάπτυξη των κριτηρίων παύσης βασίστηκε στη μελέτη των ιδιοτήτων των αλγόριθμων MLEM & OSEM. Απο τη μαθηματική έκφραση των δύο αλγορίθμων προκύπτει ότι οι συντελεστές αναβάθμισης (ΣΑ) των pixels της εικόνας παίζουν σημαντικό ρόλο στην ανακατασκευή της απο επανάληψη σε επανάληψη. Για την ανάλυση ένας τομογράφος PET προσομοιώθηκε με τη χρήση των μεθόδων Μόντε Κάρλο.Για την ανακατασκευή της εικόνας με τη χρήση των αλγόριθμων MLEM και OSEM, υπολογίστηκε ο πίνακας μετάβασης. Ο πίνακας μετάβασης εξαρτάται απο τα γεωμετρικά χαρακτηριστικά του τομογράφου PET και για τον υπολογισμό του χρησιμοποιήθηκαν επίσης μέθοδοι Μόντε Κάρλο. Ως ψηφιακά ομοιώματα χρησιμοποιήθηκαν το ομοίωμα εγκεφάλου Hoffman και το 4D MOBY. Για κάθε ένα απο τα ομοιώματα δημιουργήθηκαν προβολικά δεδομένα σε διαφορετικές ενεργότητες. Για τη σύγκριση της ανακατασκευασμένης και της αρχικής εικόνας χρησιμοποιήθηκαν δύο ξεχωριστοί δείκτες ποίοτητας, το NRMSD και το chi square. Η ανάλυση έδειξε οτι οι ΣΑ για τα μη μηδενικά pixels της εικόνας τείνουν να λάβουν την τιμή 1.0 με την αύξηση των επαναλήψεων, ενώ για τα μηδενικά pixels αυτό δε συμβαίνει. Αναλύοντας περισσότερο το διάνυσμα των ΣΑ για τα μη μηδενικά pixels της ανακατασκευασμένης εικόνας διαπιστώθηκε ότι αυτό έχει δύο μέρη: α) Μια κορυφή για τιμές των ΣΑ = 1.0 και β) μια ουρά με τιμές των ΣΑ<1.0. Αυξάνοντας τις επαναλήψεις, ο αριθμός των pixels με ΣΑ=1.0 αυξάνονταν ενώ ταυτόχρονα η ελάχιστη τιμή του διανύσματος των ΣΑ μετακινούνταν προς το 1.0. Με αυτό τον τρόπο προσδιορίστηκε μια μεταβλητή της μορφής όπου N είναι ο αριθμός των pixels της εικόνας, k η επανάληψη και η ελάχιστη τιμή του διανύσματος των ΣΑ. Η ανάλυση που έγινε έδειξε ότι η μεταβλητή Cmin συσχετίζεται μόνο με την ενεργότητα της εικόνας και όχι με το είδος ή το μέγεθός της. Η παραμετροποίηση αυτής της σχέσης οδήγησε στην ανάπτυξη του κριτηρίου παύσης για τον MLEM αλγόριθμο. Μια άλλη προσέγγιση βασισμένη στις ιδιότητες πιθανοφάνειας του MLEM αλγόριθμου, οδήγησε στην ανάπτυξη ενός διαφορετικού κριτηρίου παύσης του MLEM. Τα δύο κριτήρια αποτιμήθηκαν με τη χρήση του ομοιώματος Digimouse και βρέθηκε να παράγουν παρόμοιες εικόνες. Η ίδια μελέτη έγινε και για τον OSEM αλγόριθμο και αναπτύχθηκε κριτήριο παύσης για διαφορετικό αριθμό subsets.
17

Optimisation du processus de développement du médicament grâce à la modélisation PK et les simulations d’études cliniques

Colucci, Philippe 12 1900 (has links)
No description available.
18

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
19

New and alternative approaches to the assessment of pharmacokinetic and pharmacodynamic equivalence

Ozdin, Deniz 03 1900 (has links)
La bioéquivalence, une mesure de substitution de l'innocuité et de l'efficacité à différents stades du processus de développement des médicaments, est tout particulièrement importante lors du développement d'un médicament générique. Entre autres critères, la bioéquivalence garantit que les médicaments génériques sont équivalents aux produits innovateurs ou de références approuvés en termes d’efficacité clinique et d’innocuité tout en contournant le long cours et le coût élevé des essais chez les animaux et des essais cliniques chez les patients exigés pour les médicaments innovants. Malgré les avancées dans le développement d'approches robustes au cours des dernières décennies, la pratique actuelle de la bioéquivalence fait toujours l'objet de controverses. Le but de cette thèse est d'explorer certaines de ces controverses et de les aborder en proposant des approches nouvelles et alternatives. L'une des questions les plus controversées dans la pratique actuelle de la bioéquivalence est l'extrapolation des résultats d'études de bioéquivalence d'une population à une autre. La majorité des études de bioéquivalence portant sur des formes pharmaceutiques orales efficaces par voie systémique reposent sur les critères de pharmacocinétique obtenus chez des sujets sains, alors que la population cible est constituée de patients. Ceci est basé sur l'hypothèse que si deux produits sont bioéquivalents dans une population, ils devraient l'être dans une autre. L'extrapolation des résultats des études de bioéquivalence ne se limite pas à celle des sujets sains aux patients. Depuis 2007, une proportion croissante d'études de bioéquivalence pharmacocinétique portant sur des soumissions génériques nord-américaines ou européennes a été réalisée auprès de populations géographiques/ethniques autres que celles visées, en raison du coût moins élevé de ces études en dehors de l'Amérique du Nord et de l'Europe. Dans le premier volet de cette thèse, nous avons examiné si les résultats de la bioéquivalence obtenus dans une population géographique ou ethnique pouvaient être extrapolés à une autre. À cette fin, nous avons extrait les résultats des études de bioéquivalence pharmacocinétique disponibles publiquement et provenant de soumissions génériques à Santé Canada et à la Food and Drug Administration des États-Unis. Pour dix médicaments différents, nous avons calculé l'effet d’un repas normalisé sur le produit de référence et comparé les résultats obtenus chez deux populations ethniques, les indiens et les nord-américains. Cette approche novatrice est basée sur le raisonnement suivant: si l'effet d’un repas sur le produit de référence est le même chez les populations indienne et nord-américaine, le produit générique et sa référence qui se sont révélés bioéquivalents dans la population indienne devraient également l'être dans la population nord-américaine. Pour 90% des médicaments à l'étude, une différence statistiquement significative a été détectée entre les deux populations après un repas. Pour 30% de ces médicaments, la différence s'est révélée d'une pertinence clinique possible. Les résultats de cette étude ont mis en évidence que l’extrapolation des résultats de bioéquivalence d’une population à l’autre devrait possiblement être reconsidérée pour certains médicaments. Les défis dans le contexte de la bioéquivalence ne se limitent pas toujours aux études pivots où la performance d’un produit générique est comparée à celle de la référence. En effet, une étude pilote peut être menée afin d’établir un protocole d’étude approprié pour cette étude pivot. Par conséquent, les résultats inexacts provenant d'une étude pilote, tels qu'une estimation imprécise du moment ou de la durée d’administration optimale de la dose lors de la comparaison du produit testé par rapport à la référence, pourront affecter négativement les résultats de l’étude de bioéquivalence. Ceci est particulièrement crucial pour les produits indiqués pour un usage topique dermatologique dont les corticostéroïdes constituent un cas d’espèce. En effet, leur bioéquivalence est démontrée par une mesure pharmacodynamique, le blanchiment cutané, à différents temps après application topique. L’intensité du blanchiment est comparée entre le produit générique et le produit de référence à une durée d’administration spécifique d’une dose donnée, la DD50, soit la durée associée à 50% de l’effet maximal observé. Par conséquent, cette durée d’administration de la dose doit d’abord être déterminée dans le cadre d’une étude pilote. L’agence réglementaire américaine recommande l’utilisation d’une approche populationnelle basée sur la modélisation non linéaire à effets mixtes pour l'estimation de la DD50 et ce, quelle que soit la méthode d'analyse. Étant donné qu’il existe différents types de méthodes d’analyse non linéaire à effets mixtes, chaque commanditaire peut en choisir une différente. Dans le deuxième volet de cette thèse, nous avons examiné si les mêmes estimations de DD50 pouvaient être obtenues en utilisant différentes méthodes non linéaires à effets mixtes. À cette fin, nous avons ajusté les données de blanchiment de la peau d’onze études avec deux méthodes non linéaires à effets mixtes différentes : le maximum de vraisemblance avec maximisation de l’espérance (MLEM) et l'estimation conditionnelle de premier ordre (FOCE). Les résultats ont favorisé MLEM, compte tenu d’une meilleure puissance discriminative pour l’estimation de la DD50 de population et d’une meilleure minimisation de la variabilité interindividuelle. Bien que l'approche de la bioéquivalence fondée sur la pharmacocinétique ait contribuée de manière significative au développement de versions génériques de haute qualité des formes pharmaceutiques orales indiquées pour un effet systémique, la disponibilité de versions génériques pour les produits dermatologiques topiques demeure limitée et ce, par manque de méthodes acceptées par les agences réglementaires pour l'évaluation de la bioéquivalence de ces produits. Dans le troisième volet de cette thèse, une nouvelle approche pour l’évaluation de la bioéquivalence de formulations de crème topique d’acyclovir a été développée en utilisant une analyse basée sur un modèle de données d’exposition locales récupérées à partir d’échantillons de peau abrasée prélevés à une seule durée d’administration de la dose, la DD50 à l’aide de bandes adhésives. Un seul échantillonnage de peau effectué à la DD50 a non seulement assuré que les données pharmacocinétiques étaient recueillies à la durée d’administration de la dose ayant le meilleur pouvoir discriminant pour détecter une différence au niveau des formulations, mais a également permis de diminuer considérablement le nombre d'échantillons à analyser. Et surtout, cette nouvelle approche a permis de générer un profil pharmacocinétique au niveau même de la peau. Ce faisant, nous avons pu utiliser l'analyse compartimentale populationnelle et contourner les nombreuses hypothèses et calculs sophistiqués requis par les méthodes précédentes. Notre approche a également permis de générer de nouveaux paramètres pharmacocinétiques permettant de décrire la vitesse et le degré d’exposition cutanée pour l'évaluation de la biodisponibilité et de la bioéquivalence topiques. Finalement, cette méthode a le potentiel de discerner une formulation bioéquivalente d’une autre qui ne l’est pas. / Bioequivalence is a surrogate measure of safety and efficacy in different stages of drug development process with the most pronounced significance in the development of generic drugs. Bioequivalence, among other standards, ensures that generic drugs are equivalent to their approved innovator or reference products in terms of clinical efficacy and safety while circumventing the lengthy-time course and high cost of animal and clinical trials in patients required for innovator drugs. Despite the advancements in development of robust bioequivalence approaches over the past decades, there are still controversies in the current practice of bioequivalence. The aim of this thesis is to explore some of these controversies and address them by putting forward new and alternative approaches. One of the most controversial issues in the current practice of bioequivalence is the extrapolation of bioequivalence study results from one population to another. The majority of bioequivalence studies for systemic effective oral dosage forms are conducted based on pharmacokinetic endpoints in healthy volunteers whilst the targeted population is patients. This is based on the assumption that if two products are bioequivalent in one population, they should be bioequivalent in another one. The extrapolation of bioequivalence study results is not limited to that from healthy volunteers to patients. Since 2007, an ever-increasing proportion of pharmacokinetic bioequivalence studies for North American or European generic submissions have been performed in geographical/ethnic populations other than the intended ones, due to the lower cost of these studies outside North America and Europe. In the first part of this thesis, we investigated whether the bioequivalence results obtained in one geographical or ethnic population can be extrapolated to another one. To this purpose, we extracted pharmacokinetic bioequivalence studies results from generic submissions to Health Canada and the US Food and Drug Administration. We calculated food effect for ten different reference drug products and compared the results for each product between two ethnic populations, Indians and North Americans. This is based on the reasoning that if food effect is found to be the same between the Indian and North American populations, then the generic product and its reference that were found to be bioequivalent in the Indian population should also be bioequivalent in North American population. For 90% of the study drugs, statistically significant difference was detected in the food effect between two populations. For 30% of these drugs, the difference was found to be of possible clinical relevance. The results of this study raised a flag for extrapolating the bioequivalence results from one population to another. Challenges in the context of bioequivalence are not always limited to the pivotal studies where the performance of a generic product is compared to that of Reference. Prior to pivotal bioequivalence studies, a pilot study may be conducted to establish an appropriate study design for the pivotal bioequivalence study. Therefore, inaccurate results from a pilot study, such as inaccurate estimation of time point or dose duration for comparison of test versus reference, can affect the bioequivalence outcomes adversely. An example to this case is the comparison of the extent of skin blanching, the pharmacological effect of generic versus reference products of topical dermatological corticosteroids at specific dose duration, DD50, where the effect is half maximal. This dose duration should initially be determined in a pilot study. The US FDA 1995 Guidance document recommends the use of non-linear mixed effect population modeling for the estimation of DD50, irrespective of the method of analysis. Given the availability of different types of non-linear mixed effect modeling methods, each sponsor could choose a different one. In the second part of this thesis we investigated whether the same DD50 estimates can be obtained when different non-linear mixed effect modeling methods are used. To this purpose, we fitted the skin blanching data from eleven studies with two different non-linear mixed effect modeling methods, the Maximum Likelihood Expectation Maximization (MLEM) and the First Order Conditional Estimation (FOCE). The results favored MLEM given its lower population DD50 estimates that would locate in a more discriminative portion of the Emax curve and better minimization of inter-individual variability. Although the pharmacokinetic-based bioequivalence approach has contributed significantly to the development of high-quality generic versions of systemic effective oral dosage form, the availability of generic versions of topical dermatological products remains constrained due to the limited methods accepted for bioequivalence evaluation of these products. In the third part of this thesis, a novel approach for the bioequivalence assessment of topical acyclovir cream formulations was developed based on the model-based analysis of local exposure data recovered from tape stripping of the skin at a single dose duration, DD50. Conducting the stripping procedure only at DD50 not only ensured that the PK data was collected at the dose duration that is most discriminative of formulation differences, but it also decreased the number of samples to be analyzed significantly. More importantly, our novel approach in generating the local PK profile in the skin (dermatopharmacokinetic profile) and the implementation of population compartmental analysis circumvented the numerous assumptions and sophisticated calculations that were inherent to previous methods, while yielding the PK parameters relevant for topical bioavailability and bioequivalence assessment (rate and extent of exposure to the skin). This method successfully concluded bioequivalence and its absence.

Page generated in 0.0988 seconds