• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 130
  • 17
  • 11
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 375
  • 83
  • 78
  • 43
  • 35
  • 29
  • 28
  • 26
  • 25
  • 25
  • 24
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

OCT (Optical Coherense Tomography) : Teknik och tillämpning

Lundkvist, Stefan January 2013 (has links)
Before year 1895, the doctors could only make a probable diagnosis based on what the patient could tell and it was hurt and there was no discernable change to the outside of the body. With X-ray, it was possible to see inside the patient without first cutting it, you can say that the X-ray was the starting point for diagnostic imaging.The further development of X-ray gave CT (Computed Tomography), where X-ray tubes and detectors rotate around the patient while the patient table moves. Besides CT also developed MRI (Magnetic Resonance Imaging), PET (Positron Emission Tomography) and Ultrasound. Common to these methods is that the produced 3D images.In 1990 a completely new approach for diagnostic imaging, OCT (optical coherence tomography), by measuring the phase shift and the intensity of reflected light, it provides real-time and non-destructive measurements (in vivo) a resolution of 1 to 15 microns, much higher than all other standard imaging techniques. You could say that OCT machine can be compared to ultrasound, which uses the reflection of sound waves to interpretation.The first OCT machines were of type TD (Time Domain), these had low resolution and low scanning speed. In 2005 came the SD-OCT, they had higher resolution and scanning speed, SD stands for spectral domain, SD-OCT is sometimes called FD-OCT as Fourier transformed signals and operating in the frequency domain.The development of OCT machines are only in their infancy, resolution, scanning speed and accuracy will increase all the time, this allows new uses and ways to diagnose developed. OCT can be used in such Oncology, MSD (Musculoskeletal disorders), cardiovascular medicine, teeth, nerves, but the largest field is the eye and then the back of the eye called the retina (retina).This thesis is limited to the eye, the purpose is to provide input to those who are likely to purchase an OCT-machine, but also show the measurement data OCT-machines are performing and how to use the OCT-machine more than to see age-related macular degeneration. Another aim is to increase understanding of the physics behind an OCT-machine for ease of understanding the output given.The manufacture/model that have selected for evaluation are Zeiss Cirrus 4000, Topcon 3D OCT-2000 and Heidelberg Spectralis, the reason is that there are only these three on the Swedish market and all are SD-OCT. The way to evaluate OCT-machines is to scan performance and what the various analysis programs can handle. Furthermore, each OCT-machine scans the macula and optic disk on a experimental person/ reference eye, in order to get the output of the precision, or if you want to call it repeatability, which is very important if one wants to follow a solitary disease course.The conclusion of this thesis is to OCT machines are quite similar. When it comes to ease of use when doing scans is the Cirrus is lightened by the use of the extra screen where you always look eye (iris camera), which makes it easy to adjust the sharpness and position of the mouse buttons. Topcon and Heidelberg is not difficult to use but requires more experience of the person making the OCT scans. Most measurement functions in the analysis program is Topcon and Heidelberg and best accuracy/repeatability is Heidelberg, both the macula and RFNL.OCT machine is a good tool to use on the anterior segment, but in the case the precision allows the precision used to monitor RNFL thickness changes in those with glaucoma. / <p>Validerat; 20131029 (global_studentproject_submitter)</p>
372

Vergleichende Permeabilitäts- und Penetrationsstudien in vitro an Schweinekornea und Rindernasenmukosa sowie biophysikalische Untersuchungen an potentiellen Formulierungen (Mikroemulsionen)

Richter, Telse Erika 28 April 2004 (has links)
In dieser Arbeit wurden die beiden Membranen Schweinekornea und Rindernasenmukosa hinsichtlich ihrer Permeabilität für den lipophilen Arzneistoff Androstendion (AD), der sowohl zur ophthalmologischen Anwendung als auch für die nasale Applikation mit systemischer Wirkung von Interesse ist, verglichen. Zusätzlich wurden identische Versuche mit der synthetischen Membran, Nephrophan(r), durchgeführt. Neben der gepufferten Arzneistofflösung, für die aufgrund des differenzierten Membranaufbaus Permeationskoeffizienten (Peff) für AD im Verhältnis von 3:1:4 (Mukosa : Kornea : Nephrophan(r)) resultierten, standen zwei entwickelte wasserkontinuierliche, nicht-ionische Mikroemulsionen (ME) und ihre Einzelkomponenten als Trägerformulierungen bei den Permeationsstudien im Vordergrund. Darüber hinaus wurde ein ME-System mit einem kationischen Kotensid entwickelt, charakterisiert und in die Untersuchungen einbezogen. Die getesteten Trägerformulierungen führten an den einzelnen Membranen zu unterschiedlichen Ergebnissen. Um auch den "hydrophilen Permeationsweg" einzuschließen, wurde parallel Fluorescein-Na (FSC) als hydrophile Modellsubstanz getestet. Als mögliche Ursache für diese differenzierten Ergebnisse wurde ein Einfluss der Additiva und Formulierungen auf das Verteilungsverhalten des lipophilen AD zwischen Donatorlösung und Membran in Betracht gezogen und daher in einem weiteren Versuchsblock die Penetrationsrate untersucht. Darüber hinaus wurde parallel dazu der metabolische Abbau, den AD während des Membrandurchtritts durch die vorhandenen Enzyme erfahren kann, berücksichtigt. Die Resultate zeigten Übereinstimmung mit den Permeationsergebnissen indem die Additiva und Formulierungen die Penetration in das Gewebe und den Metabolismus mehr oder weniger herabsetzten. Zur Charakterisierung der systemischen Verfügbarkeit von AD nach nasaler Applikation wurden im Anschluss an die Permeations- und Penetrationsversuche In-vivo-Studien an Kaninchen durchgeführt, die hier allerdings lediglich mit orientierendem Charakter einbezogen werden konnten. Um schließlich die Verhältnisse am Auge bzw. den mehrschichtigen Tränenfilm hinsichtlich einer Applikation der ME-Systeme modellhaft zu simulieren, wurden biophysikalische Untersuchungen in einem Langmuir-Trog mit Meibom''schen Drüsensekret als Oberflächenfilm durchgeführt, die über mögliche Interaktionen der Formulierungen bzw. ihrer Bestandteile mit der Tränenlipidschicht des Auges Auskunft geben sollten. Hier zeigten sich günstige Einflüsse der ME auf die Tränenlipidschicht, die vor allem bei einer Anwendung der ME bei Trockenem Auge von Vorteil sein können. / In these studies in vitro permeability of porcine cornea and bovine nasal mucosa was investigated and compared to each other using the lipophilic drug androstenedione (AD), which is of interest for ocular use as well as nasal, systemical administration. Additionally, the artificial membrane, Nephrophan(r), was used for identical investigations. Because of the differentiated membrane structure AD-permeation behaviour out of buffer solution resulted in a ratio of permeability coefficients (Peff) of 3:1:4 (nasal mucosa : cornea : Nephrophan(r)). Furthermore, two water-continuous, non-ionic microemulsions (ME) and their isolated components were investigated as carrier formulations. Additionally, a new ME containing a cationic co-surfactant was developed, characterized and included in the permeability studies as well. Permeation out of these carrier formulations also resulted in different Peff in case of all tissues. For including studies of the hydrophilic transport way flourescein-sodium (FSC) was investigated as well representing a hydrophilic model substance. Influence of the additives and formulations on the partition behaviour of AD between membrane and donor solution was considered to partially cause these results. Therefore, penetration of AD was investigated together with the metabolic conversion of AD caused by enzymes located in the biological membranes. The additives and formulations decreased penetration into the tissue as well as metabolism of the drug. These findings corresponded with and could therefore explain the results of the permeability studies to some extend. For characterizing systemical availability of AD after nasal administration and improving the results of the permeability and penetration investigations in vivo studies using rabbits were carried out. However, these studies could give but marginal information and therefore be incorporated for orientation only. Furthermore, biophysical investigations were carried out using a Langmuir trough with Meibomian gland secrete (MGS) as the surface layer in order to simulate the multiple layer tear film. These studies were supposed to give some information about interactions between the ME or their isolated components, respectively, and the lipid layer of the tear film, regarding ocular administration of these formulations. The results showed suitable influence of the ME on the MGS, which can especially be advantageous for a use in Dry eye syndrome.
373

Synthese und Charakterisierung von Limbusepithel-Amnion-Transplantaten aus langzeitorgankonservierten Hornhäuten und kryokonservierten Amnionmembranen

Henkel, Tassilo 07 December 2010 (has links)
In dieser Arbeit wurden Methoden entwickelt und verglichen, um aus Corneoskleralringen langzeitorgankonservierter Hornhäute und intakten, kryokonservierten Amnionmembranen Limbusepithel-Amnion-Transplantate herzustellen. Als erfolgreichste Kultivierungsmethode stellte sich hierbei signifikant die Explantat-Technik mit nach unten gerichtetem Limbusepithel heraus. Hier konnte eine Auswachsrate von 42 % erzielt werden. Es wurde weiterhin gezeigt, dass das ausgewachsene, mehrschichtige Limbusepithel proliferationsfähige TACs (Transient Amplifying Cells) enthält. Weiterhin konnten mittels Regressionsanalyse signifikante Zusammenhänge zwischen Spenderalter, Post-mortem-Zeit, Organkultur-Dauer und der Auswachsrate beschrieben werden. Kurzgefasst wurde die Vermutung bestätigt, dass jede Verlängerung der unterschiedlichen Zeiten eine Verringerung der Auswachsrate zur Folge hat. Die hergestellten Limbusepithel-Amnion-Transplantate könnten für Patienten mit Limbusstammzellinsuffizienz unterschiedlicher Genese verwendet werden.
374

Analysis of the human corneal shape with machine learning

Bouazizi, Hala 01 1900 (has links)
Cette thèse cherche à examiner les conditions optimales dans lesquelles les surfaces cornéennes antérieures peuvent être efficacement pré-traitées, classifiées et prédites en utilisant des techniques de modélisation géométriques (MG) et d’apprentissage automatiques (AU). La première étude (Chapitre 2) examine les conditions dans lesquelles la modélisation géométrique peut être utilisée pour réduire la dimensionnalité des données utilisées dans un projet d’apprentissage automatique. Quatre modèles géométriques ont été testés pour leur précision et leur rapidité de traitement : deux modèles polynomiaux (P) – polynômes de Zernike (PZ) et harmoniques sphériques (PHS) – et deux modèles de fonctions rationnelles (R) : fonctions rationnelles de Zernike (RZ) et fonctions rationnelles d’harmoniques sphériques (RSH). Il est connu que les modèles PHS et RZ sont plus précis que les modèles PZ pour un même nombre de coefficients (J), mais on ignore si les modèles PHS performent mieux que les modèles RZ, et si, de manière plus générale, les modèles SH sont plus précis que les modèles R, ou l’inverse. Et prenant en compte leur temps de traitement, est-ce que les modèles les plus précis demeurent les plus avantageux? Considérant des valeurs de J (nombre de coefficients du modèle) relativement basses pour respecter les contraintes de dimensionnalité propres aux taches d’apprentissage automatique, nous avons établi que les modèles HS (PHS et RHS) étaient tous deux plus précis que les modèles Z correspondants (PZ et RR), et que l’avantage de précision conféré par les modèles HS était plus important que celui octroyé par les modèles R. Par ailleurs, les courbes de temps de traitement en fonction de J démontrent qu’alors que les modèles P sont traités en temps quasi-linéaires, les modèles R le sont en temps polynomiaux. Ainsi, le modèle SHR est le plus précis, mais aussi le plus lent (un problème qui peut en partie être remédié en appliquant une procédure de pré-optimisation). Le modèle ZP était de loin le plus rapide, et il demeure une option intéressante pour le développement de projets. SHP constitue le meilleur compromis entre la précision et la rapidité. La classification des cornées selon des paramètres cliniques a une longue tradition, mais la visualisation des effets moyens de ces paramètres sur la forme de la cornée par des cartes topographiques est plus récente. Dans la seconde étude (Chapitre 3), nous avons construit un atlas de cartes d’élévations moyennes pour différentes variables cliniques qui pourrait s’avérer utile pour l’évaluation et l’interprétation des données d’entrée (bases de données) et de sortie (prédictions, clusters, etc.) dans des tâches d’apprentissage automatique, entre autres. Une base de données constituée de plusieurs milliers de surfaces cornéennes antérieures normales enregistrées sous forme de matrices d’élévation de 101 by 101 points a d’abord été traitée par modélisation géométrique pour réduire sa dimensionnalité à un nombre de coefficients optimal dans une optique d’apprentissage automatique. Les surfaces ainsi modélisées ont été regroupées en fonction de variables cliniques de forme, de réfraction et de démographie. Puis, pour chaque groupe de chaque variable clinique, une surface moyenne a été calculée et représentée sous forme de carte d’élévations faisant référence à sa SMA (sphère la mieux ajustée). Après avoir validé la conformité de la base de donnée avec la littérature par des tests statistiques (ANOVA), l’atlas a été vérifié cliniquement en examinant si les transformations de formes cornéennes présentées dans les cartes pour chaque variable étaient conformes à la littérature. C’était le cas. Les applications possibles d’un tel atlas sont discutées. La troisième étude (Chapitre 4) traite de la classification non-supervisée (clustering) de surfaces cornéennes antérieures normales. Le clustering cornéen un domaine récent en ophtalmologie. La plupart des études font appel aux techniques d’extraction des caractéristiques pour réduire la dimensionnalité de la base de données cornéennes. Le but est généralement d’automatiser le processus de diagnostique cornéen, en particulier en ce qui a trait à la distinction entre les cornées normales et les cornées irrégulières (kératocones, Fuch, etc.), et dans certains cas, de distinguer différentes sous-classes de cornées irrégulières. L’étude de clustering proposée ici se concentre plutôt sur les cornées normales afin de mettre en relief leurs regroupements naturels. Elle a recours à la modélisation géométrique pour réduire la dimensionnalité de la base de données, utilisant des polynômes de Zernike, connus pour leur interprétativité transparente (chaque terme polynomial est associé à une caractéristique cornéenne particulière) et leur bonne précision pour les cornées normales. Des méthodes de différents types ont été testées lors de prétests (méthodes de clustering dur (hard) ou souple (soft), linéaires or non-linéaires. Ces méthodes ont été testées sur des surfaces modélisées naturelles (non-normalisées) ou normalisées avec ou sans traitement d’extraction de traits, à l’aide de différents outils d’évaluation (scores de séparabilité et d’homogénéité, représentations par cluster des coefficients de modélisation et des surfaces modélisées, comparaisons statistiques des clusters sur différents paramètres cliniques). Les résultats obtenus par la meilleure méthode identifiée, k-means sans extraction de traits, montrent que les clusters produits à partir de surfaces cornéennes naturelles se distinguent essentiellement en fonction de la courbure de la cornée, alors que ceux produits à partir de surfaces normalisées se distinguent en fonction de l’axe cornéen. La dernière étude présentée dans cette thèse (Chapitre 5) explore différentes techniques d’apprentissage automatique pour prédire la forme de la cornée à partir de données cliniques. La base de données cornéennes a d’abord été traitée par modélisation géométrique (polynômes de Zernike) pour réduire sa dimensionnalité à de courts vecteurs de 12 à 20 coefficients, une fourchette de valeurs potentiellement optimales pour effectuer de bonnes prédictions selon des prétests. Différentes méthodes de régression non-linéaires, tirées de la bibliothèque scikit-learn, ont été testées, incluant gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, et multi-layer perceptron. Les prédicteurs proviennent des variables cliniques disponibles dans la base de données, incluant des variables géométriques (diamètre horizontal de la cornée, profondeur de la chambre cornéenne, côté de l’œil), des variables de réfraction (cylindre, sphère et axe) et des variables démographiques (âge, genre). Un test de régression a été effectué pour chaque modèle de régression, défini comme la sélection d’une des 256 combinaisons possibles de variables cliniques (les prédicteurs), d’une méthode de régression, et d’un vecteur de coefficients de Zernike d’une certaine taille (entre 12 et 20 coefficients, les cibles). Tous les modèles de régression testés ont été évalués à l’aide de score de RMSE établissant la distance entre les surfaces cornéennes prédites (les prédictions) et vraies (les topographies corn¬éennes brutes). Les meilleurs d’entre eux ont été validés sur l’ensemble de données randomisé 20 fois pour déterminer avec plus de précision lequel d’entre eux est le plus performant. Il s’agit de gradient boosting utilisant toutes les variables cliniques comme prédicteurs et 16 coefficients de Zernike comme cibles. Les prédictions de ce modèle ont été évaluées qualitativement à l’aide d’un atlas de cartes d’élévations moyennes élaborées à partir des variables cliniques ayant servi de prédicteurs, qui permet de visualiser les transformations moyennes d’en groupe à l’autre pour chaque variables. Cet atlas a permis d’établir que les cornées prédites moyennes sont remarquablement similaires aux vraies cornées moyennes pour toutes les variables cliniques à l’étude. / This thesis aims to investigate the best conditions in which the anterior corneal surface of normal corneas can be preprocessed, classified and predicted using geometric modeling (GM) and machine learning (ML) techniques. The focus is on the anterior corneal surface, which is the main responsible of the refractive power of the cornea. Dealing with preprocessing, the first study (Chapter 2) examines the conditions in which GM can best be applied to reduce the dimensionality of a dataset of corneal surfaces to be used in ML projects. Four types of geometric models of corneal shape were tested regarding their accuracy and processing time: two polynomial (P) models – Zernike polynomial (ZP) and spherical harmonic polynomial (SHP) models – and two corresponding rational function (R) models – Zernike rational function (ZR) and spherical harmonic rational function (SHR) models. SHP and ZR are both known to be more accurate than ZP as corneal shape models for the same number of coefficients, but which type of model is the most accurate between SHP and ZR? And is an SHR model, which is both an SH model and an R model, even more accurate? Also, does modeling accuracy comes at the cost of the processing time, an important issue for testing large datasets as required in ML projects? Focusing on low J values (number of model coefficients) to address these issues in consideration of dimensionality constraints that apply in ML tasks, it was found, based on a number of evaluation tools, that SH models were both more accurate than their Z counterparts, that R models were both more accurate than their P counterparts and that the SH advantage was more important than the R advantage. Processing time curves as a function of J showed that P models were processed in quasilinear time, R models in polynomial time, and that Z models were fastest than SH models. Therefore, while SHR was the most accurate geometric model, it was the slowest (a problem that can partly be remedied by applying a preoptimization procedure). ZP was the fastest model, and with normal corneas, it remains an interesting option for testing and development, especially for clustering tasks due to its transparent interpretability. The best compromise between accuracy and speed for ML preprocessing is SHP. The classification of corneal shapes with clinical parameters has a long tradition, but the visualization of their effects on the corneal shape with group maps (average elevation maps, standard deviation maps, average difference maps, etc.) is relatively recent. In the second study (Chapter 3), we constructed an atlas of average elevation maps for different clinical variables (including geometric, refraction and demographic variables) that can be instrumental in the evaluation of ML task inputs (datasets) and outputs (predictions, clusters, etc.). A large dataset of normal adult anterior corneal surface topographies recorded in the form of 101×101 elevation matrices was first preprocessed by geometric modeling to reduce the dimensionality of the dataset to a small number of Zernike coefficients found to be optimal for ML tasks. The modeled corneal surfaces of the dataset were then grouped in accordance with the clinical variables available in the dataset transformed into categorical variables. An average elevation map was constructed for each group of corneal surfaces of each clinical variable in their natural (non-normalized) state and in their normalized state by averaging their modeling coefficients to get an average surface and by representing this average surface in reference to the best-fit sphere in a topographic elevation map. To validate the atlas thus constructed in both its natural and normalized modalities, ANOVA tests were conducted for each clinical variable of the dataset to verify their statistical consistency with the literature before verifying whether the corneal shape transformations displayed in the maps were themselves visually consistent. This was the case. The possible uses of such an atlas are discussed. The third study (Chapter 4) is concerned with the use of a dataset of geometrically modeled corneal surfaces in an ML task of clustering. The unsupervised classification of corneal surfaces is recent in ophthalmology. Most of the few existing studies on corneal clustering resort to feature extraction (as opposed to geometric modeling) to achieve the dimensionality reduction of the dataset. The goal is usually to automate the process of corneal diagnosis, for instance by distinguishing irregular corneal surfaces (keratoconus, Fuch, etc.) from normal surfaces and, in some cases, by classifying irregular surfaces into subtypes. Complementary to these corneal clustering studies, the proposed study resorts mainly to geometric modeling to achieve dimensionality reduction and focuses on normal adult corneas in an attempt to identify their natural groupings, possibly in combination with feature extraction methods. Geometric modeling was based on Zernike polynomials, known for their interpretative transparency and sufficiently accurate for normal corneas. Different types of clustering methods were evaluated in pretests to identify the most effective at producing neatly delimitated clusters that are clearly interpretable. Their evaluation was based on clustering scores (to identify the best number of clusters), polar charts and scatter plots (to visualize the modeling coefficients involved in each cluster), average elevation maps and average profile cuts (to visualize the average corneal surface of each cluster), and statistical cluster comparisons on different clinical parameters (to validate the findings in reference to the clinical literature). K-means, applied to geometrically modeled surfaces without feature extraction, produced the best clusters, both for natural and normalized surfaces. While the clusters produced with natural corneal surfaces were based on the corneal curvature, those produced with normalized surfaces were based on the corneal axis. In each case, the best number of clusters was four. The importance of curvature and axis as grouping criteria in corneal data distribution is discussed. The fourth study presented in this thesis (Chapter 5) explores the ML paradigm to verify whether accurate predictions of normal corneal shapes can be made from clinical data, and how. The database of normal adult corneal surfaces was first preprocessed by geometric modeling to reduce its dimensionality into short vectors of 12 to 20 Zernike coefficients, found to be in the range of appropriate numbers to achieve optimal predictions. The nonlinear regression methods examined from the scikit-learn library were gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, and multilayer perceptron. The predictors were based on the clinical variables available in the database, including geometric variables (best-fit sphere radius, white-towhite diameter, anterior chamber depth, corneal side), refraction variables (sphere, cylinder, axis) and demographic variables (age, gender). Each possible combination of regression method, set of clinical variables (used as predictors) and number of Zernike coefficients (used as targets) defined a regression model in a prediction test. All the regression models were evaluated based on their mean RMSE score (establishing the distance between the predicted corneal surfaces and the raw topographic true surfaces). The best model identified was further qualitatively assessed based on an atlas of predicted and true average elevation maps by which the predicted surfaces could be visually compared to the true surfaces on each of the clinical variables used as predictors. It was found that the best regression model was gradient boosting using all available clinical variables as predictors and 16 Zernike coefficients as targets. The most explicative predictor was the best-fit sphere radius, followed by the side and refractive variables. The average elevation maps of the true anterior corneal surfaces and the predicted surfaces based on this model were remarkably similar for each clinical variable.
375

dis.PLAY - Center for the Art of Moving Images. A Film Center for Washington, D.C.

Torres-Barreto, Jose Antonio 10 March 2006 (has links)
This thesis explores how a displayed image and architecture interact together. This manifesto is analogically explored using parts of the human body such as the eyeballs as a structural analysis for the buildings with a projection of the cornea, the pupil, the retina, the optic nerves and the brain. This analysis follows a sequential order of capturing light, transcribing light into image, and displaying such image onto a screen. Both, the image and architecture are created parallel to each other respectively when conceiving an architectural idea in order to develop the idea into a building and then perceiving the architecture from such building. These steps are a cinematic approach using a video camera to record an experience of movement through the journey of a metro ride. This video is one of the tools used to edit an urban tissue of downtown Washington, D.C. The project becomes a Center for the Art of Moving Images exposing vectors of movements through its architecture. The building is manifested in a three-dimensional design where the site provides a sunken plaza 60 ft below street level perceived as a new floor in the city. The underground metro station transitions to the street surface through the use of this plaza in a very harmonious way. The result is a visual depth parallel to the perspectives perceived in movies where you see beyond the surface of the screen and in this case, beyond the surface of the city. / Master of Architecture

Page generated in 2.0214 seconds