• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 37
  • 21
  • 10
  • 9
  • 6
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 300
  • 300
  • 86
  • 59
  • 58
  • 56
  • 48
  • 41
  • 40
  • 38
  • 36
  • 31
  • 28
  • 26
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Subjective quality assessment : a study on the grading scales : illustrations for stereoscopic and 2D video content / Investigation sur les échelles de l'évaluation subjective de la qualité visuelle : illustrations pour des vidéos stéréoscopiques et 2D

Bensaied Ghaly, Rania 05 July 2018 (has links)
Les recommandations (normes) élaborées par l'UIT (l'Union Internationale de Télécommunications) précisent avec rigueur les conditions dans lesquelles les tests subjectifs de qualité visuelle doivent avoir lieu: la salle de test, les conditions de visualisation, le protocole d'évaluation, les méthodes de post-traitement des scores accordées par les évaluateurs, etc... Pourtant, les études de l'état de l'art mettent en évidence que des nombreuses inadvertances perdurent au niveau théorique et expérimental: (1) la modélisation statistique précise des scores attribués par les observateurs humains à un certain type de contenu reste encore inconnue, (2) la différence théorique et applicative entre les évaluations sur des échelles discrètes et continues ne fait pas encore l'objet d'une étude dédiée et (3) l'impact sémantique (psycho-cognitif) des étiquettes associées à l'échelle d'évaluation est toujours invoqué mais jamais évalué. Notre thèse offre un cadre méthodologique et expérimental permettant de: 1. Modéliser avec précision statistique la distribution des scores attribués par les observateurs et évaluer l'impact pratique d'une telle modélisation, 2. Établir la relation théorique entre les scores attribués par les observateurs sur une échelle continue et une échelle discrète, 3. Établir le cadre statistique permettant de quantifier l'impact sémantique induit par les étiquettes sémantiques associées à l'échelle d'évaluation, 4. Spécifier et réaliser un cadre expérimental de référence, à vocation d'utilisation ultérieure par les instances de l'UIT / Quality evaluation is an ever-fascinating field, covering at least a century of research works emerging from psychology, psychophysics, sociology, marketing, medicine… While for visual quality evaluation the IUT recommendations pave the way towards well-configured, consensual evaluation conditions granting reproducibility and comparability of the experimental results, an in-depth analysis of the state-of-the-art studies shows at least three open challenges related to the: (1) the continuous vs. discrete evaluation scales, (2) the statistical distribution of the scores assigned by the observers and (3) the usage of semantic labels on the grading scales. Thus, the present thesis turns these challenges into three research objectives: 1. bridging at the theoretical level the continuous and the discrete scale evaluation procedures and investigating whether the number of the classes on the discrete scales is a criterion meaningful in the results interpretations or just a parameter; studying the theoretical influence of the statistical model of evolution results and of the size of the panel (number of observers) in the accuracy of the results are also targeted; 2. quantifying the bias induced in subjective video quality experiments by the semantic labels (e.g. Excellent, Good, Fair, Poor and Bad) generally associated to the discrete grading scales; 3. designing and deploying an experimental test-bed able to support their precision and statistical relevance. With respect to these objectives, the main contributions are at theoretical, methodological and experimental levels
252

Untersuchungen zur Bildqualität von Röntgenaufnahmen von Klein- und Heimtieren in der tierärztlichen Praxis

Boeltzig, Christian 08 June 2010 (has links)
Das Ziel dieser Untersuchung ist es, Aspekte der Strukturqualität (technische Untersuchungs- und Bildqualität), Prozessqualität (Angemessenheit der Indikation) und der Ergebnisqualität (Richtigkeit der Befunderhebungen) von Röntgenaufnahmen aus der tierärztlichen Praxis zu erörtern und häufige Fehlerquellen festzustellen. Dazu werden alle Röntgenaufnahmen von Kleintieren, die im Zeitraum von Anfang Dezember 2003 bis Ende Dezember 2004 als Original in die Klinik für Kleintiere der Universität Leipzig gelangen auf praxisrelevante Merkmale der Struktur-, Prozess- und Ergebnisqualität hin untersucht. Die Ermittlung der Daten erfolgt auf subjektiver Grundlage anhand eines Befundbogens durch Konsensbeurteilung von zwei Unter-suchern. Zur Auswertung gelangen 1259 Röntgenaufnahmen aus 600 verschiedenen Untersuchungen. Diese Aufnahmen stammen zu 86,9 % aus den Bundesländern Sachsen, Sachsen-Anhalt und Thüringen von 216 verschiedenen Tierarztpraxen. 80,3 % der untersuchten Tiere sind Hunde, 18,9 % Katzen. In der Gesamtbeurteilung der Bildqualität erweisen sich 48,7 % der Aufnahmen ohne Bean-standung. 29,2 % zeigen geringfügige Mängel, 16,0 % sind bedingt diagnostisch geeignet und 6,1 % sind unzureichend. 22,1 % der ausgewerteten Aufnahmen sind somit mangelhaft. Sie weisen Defizite in der diagnostischen Eignung auf oder sind hierfür ungeeignet. Die wichtigsten Fehlerquellen der Strukturqualität sind Mängel der Lagerung und Projektion, des Bildkontrastes und der Bildschärfe. Abweichungen der Lagerung und Projektion, meist durch nicht winkelgerechte Lagerung des Patienten im Direktstrahl verursacht, sind mit 11,4 % aller Aufnahmen im Vergleich zu anderen Fehlerquellen relativ selten. Die Auswirkungen auf die diagnostische Eignung sind jedoch oft schwerwiegend: 69,9 % der von Mängeln in der Lagerung betroffenen Aufnahmen zeigen Einschränkungen hinsichtlich der diagnostischen Eignung. 33,3 % aller Aufnahmen weisen Abweichungen des Bildkontrastes auf. Die häufigste Ursache dafür ist der Umgang mit verbrauchter Entwicklerlösung, gefolgt von Unter- und Überbelichtung. Betrachtet man die Gesamtheit der Kontrastabweichungen kann festgestellt werden, dass 47,7 % auf Fehler in der Filmentwicklung zurückzuführen sind. Auswirkungen auf die Eignung zur Diagnosestellung sind weniger gravierend als bei Mängeln der Lagerung und Projektion: 35,1 % der von Kontrastabweichungen betroffenen Aufnahmen zeigen Einschränkungen des diagnosti-schen Nutzens. 23,0 % der Aufnahmen sind durch Abweichungen der Bildschärfe gekennzeichnet. Am häufigs-ten ist Bewegungsunschärfe (67,7 % der betroffenen Aufnahmen) zu ermitteln. Weiterhin wer-den oft Materialunschärfe und Unschärfe durch Streustrahlung beobachtet, die auf den falschen Umgang mit dem Streustrahlenraster und der Film-Folien-Kombination zurückzuführen sind. Die Auswirkungen auf die diagnostische Eignung zeigen, dass 29,6 % der Röntgenaufnahmen mit Abweichungen der Bildschärfe Einschränkungen des diagnostischen Nutzens nach sich ziehen. Artefakte, vor allem verursacht durch Kratzer, Risse oder Brüche in Film oder Folie sowie durch Verunreinigungen durch Entwickler-, Fixierlösung oder Wasser, sind bei 20,7 % aller Röntgen-aufnahmen zu finden. Einschränkungen der diagnostischen Eignung ergeben sich dadurch bei 1,2 % der analysierten Aufnahmen. Zur Untersuchung der Prozessqualität wird die Angemessenheit der Indikation ermittelt, die nach RöV § 2a für jede Röntgenaufnahme gegeben sein muss (ANON. 2003a). Eine absolute Indikation kann bei 94,7 % der ausgewerteten Aufnahmen festgestellt werden. Bei knapp der Hälfte aller Aufnahmen dieser Arbeit kann die Ergebnisqualität erörtert werden. Die gestellte radiologische Verdachtsdiagnose ist bei 85,5 % dieser Fälle medizinisch nachvoll-ziehbar. Aus den Ergebnissen dieser Arbeit lässt sich ableiten, dass ein wesentlicher Teil der vorkom-menden Mängel der Bildqualität auf ungenügende Sorgfalt bei der Anfertigung und Verarbeitung der Röntgenaufnahme zurückzuführen ist. Allerdings liegen auch Defizite bei der Interpretation der gewonnenen Information durch die Röntgenuntersuchung vor. Da jeder Anwender ionisierender Strahlen verpflichtet ist, jede unnötige Strahlenexposition von Mensch und Umwelt zu vermeiden, müssen bestehende Defizite in Bezug auf die Anwendung der Projektionsradio-grafie abgebaut werden und die Vermittlung von Wissen und praktischen Fertigkeiten auf diesem Gebiet während der tierärztlichen Ausbildung verbessert werden. Ebenso sollte eine Feh-lerbeseitigung durch Ausnutzung oder Verbesserung der technischen Möglichkeiten erfolgen. Eine erneute Untersuchung zur Qualität von Röntgenaufnahmen in der tierärztlichen Praxis auf der Grundlage dieser Studie erscheint zur Überprüfung der getroffenen Maßnahmen zur Ver-besserung der Bildqualität sinnvoll.:ABKÜRZUNGSVERZEICHNIS IV 1 EINLEITUNG 1 2 LITERATURÜBERSICHT 4 2.1 Strahlenschutz 4 2.1.1 Strahlenbiologische Grundlagen 4 2.1.2 Rechtliche Grundlagen 5 2.1.2.1 Anwendung von Röntgenstrahlen 5 2.1.2.2 Indikationsstellung 6 2.1.3 Technischer und praktischer Strahlenschutz 6 2.2 Bildqualität 8 2.2.1 Ermittlung der Kenngrößen eines Röntgenbildes 8 2.2.1.1 Optische Dichte 9 2.2.1.1.1 Definition der optischen Dichte 9 2.2.1.1.2 Ermittlung der optischen Dichte 10 2.2.1.2 Unschärfe 10 2.2.1.2.1 Definition der Unschärfe 10 2.2.1.2.2 Ermittlung der Unschärfe 12 2.2.1.3 Kontrast 12 2.2.1.3.1 Definition des Kontrastes 12 2.2.1.3.2 Ermittlung des Kontrastes 15 2.2.1.4 Bildrauschen 15 2.2.1.4.1 Definition des Bildrauschens 15 2.2.1.4.2 Ermittlung des Bildrauschens 16 2.2.2 Einflussfaktoren auf die Bildqualität 17 2.2.2.1 Allgemeine Fehlerquellen 17 2.2.2.2 Einfluss von Spannung und Stromstärke 17 2.2.2.3 Einfluss der Streustrahlung 18 2.2.2.4 Rastereinsatz 20 2.2.2.5 Einfluss des Objektes 21 2.2.2.6 Einfluss der Geometrie 22 2.2.2.7 Einfluss von Film und Folie 22 2.2.2.7.1 Röntgenfilm 23 2.2.2.7.2 Verstärkerfolie 24 2.2.2.8 Einfluss der Filmverarbeitung 25 2.2.2.9 Dunkelkammerarbeit 26 2.2.2.10 Artefakte 26 3 TIERE, MATERIAL UND METHODEN 28 3.1 Tiere und Material 28 3.2 Methoden 28 3.2.1 Datenerfassung und Archivierung 28 3.2.2 Befundbogen 28 3.2.2.1 Epidemiologische Daten 29 3.2.2.2 Strukturqualität 29 3.2.2.2.1 Technische Untersuchungsqualität 29 3.2.2.2.2 Technische Bildqualität 30 3.2.2.3 Prozessqualität 31 3.2.2.4 Ergebnisqualität 31 3.2.2.5 Zusammenfassende Beurteilung der Bildqualität 37 3.2.3 Datenauswertung 38 4 ERGEBNISSE 39 4.1 Epidemiologische Daten 39 4.2 Strukturqualität 42 4.2.1 Häufigkeitsanalyse 42 4.2.1.1 Zusammenfassende Beurteilung der Bildqualität 42 4.2.1.2 Technische Untersuchungsqualität 44 4.2.1.2.1 Vollständigkeit der Untersuchung 44 4.2.1.2.2 Art der Entwicklung 44 4.2.1.2.3 Streustrahlenrastereinsatz 45 4.2.1.2.4 Praktischer Strahlenschutz 46 4.2.1.2.5 Vollständige Abbildung der Region 46 4.2.1.2.6 Identifikation der Aufnahme 46 4.2.1.2.7 Kontrastmitteleinsatz 47 4.2.1.3 Technische Bildqualität 48 4.2.1.3.1 Artefakte 48 4.2.1.3.2 Lagerung und Projektion 49 4.2.1.3.3 Bildkontrast 52 4.2.1.3.4 Bildschärfe 54 4.2.2 Fehleranalyse 57 4.2.2.1 Artefakte vs. Art der Entwicklung 57 4.2.2.2 Lagerung und Projektion vs. Projektionsebene 57 4.2.2.3 Lagerung und Projektion vs. Körperregion und Projektionsebene 58 4.2.2.4 Bildschärfe vs. Körperregion und Projektionsebene 59 4.2.2.5 Bildschärfe vs. Rastereinsatz 60 4.2.2.6 Bildkontrast vs. Projektionsebene 62 4.2.2.7 Bildkontrast vs. Rastereinsatz 62 4.2.2.8 Bildkontrast vs. Art der Entwicklung 63 4.3 Strukturqualität – Konstanzanalyse der Tierarztpraxen 63 4.4 Prozessqualität 67 4.5 Ergebnisqualität 67 5 DISKUSSION 69 5.1 Methode der Beurteilung der Bildqualität 69 5.2 Zusammenfassende Beurteilung der Bildqualität 69 5.3 Vollständigkeit der Untersuchung 70 5.4 Art der Entwicklung 71 5.5 Rastereinsatz 72 5.6 Praktischer Strahlenschutz 73 5.7 Artefakte 75 5.8 Lagerung und Projektion 77 5.9 Bildschärfe 78 5.10 Bildkontrast 80 5.11 Kontrastmitteleinsatz 83 5.12 Konstanz innerhalb der Tierarztpraxen 84 5.13 Prozessqualität 85 5.14 Ergebnisqualität 86 5.15 Zusammenfassung der Diskussion und Schlussfolgerung 87 6 ZUSAMMENFASSUNG 90 7 SUMMARY 92 8 LITERATURVERZEICHNIS 94 / The aim of this study is to evaluate aspects of structural quality (technical examination and im-age quality), quality of the process (adequacy of indication) and the outcome (correctness of findings) of radiographs from the veterinary practice and to indentify frequent radiographic er-rors. For this purpose all radiographs of small animals that are received at the Department of Small Animal Medicine of the University of Leipzig between December 1st 2003 and December 31th 2004 as an original are examined for relevant features of structural quality, process quality and outcome. The data collection is done subjectively based on the consensus examination of the radiographs by two independent examiners. The evaluation includes 1259 radiographs from 600 different examinations. 86.9 % of these images come from the federal states of Germany Saxony, Saxony-Anhalt and Thuringia from 216 different veterinary practices. 80.3 % of the examined animals are dogs, 18.9 % are cats. Concerning the over-all evaluation of the image quality, 48.7 % of the radiographs are without restrictions. Minor faults are detected in 29.2 % of the radiographs, 16.0 % are diagnostically compromised and 6.1 % are insufficient. Thus, 22.1 % of the examined radiographs are unsatis-factory. They show either deficits in their diagnostic suitability or are completely useless. The most important sources of errors are faults in positioning of the patient and the following projec-tion, of image contrast and sharpness. Deviations in positioning and projection, mostly caused by a suboptimal angle in the position of the patient in the x-ray, are with 11.4 % of all radiographs in comparison to other errors relatively rare. However the effect on the diagnostic use is severe: 69.9 % of the images with positioning faults show deficits with regard to the diagnostic suitability. Regarding the contrast of the image, 33.3 % of all radiographs display deficits. The most com-mon cause is the use of exhausted developer, followed by under- and overexposure. Consider-ing the overall deviations of image contrast, 47.7 % are attributed to errors during the x-ray film development. Consequences for the diagnostic use are less serious compared to errors in posi-tioning and projection: 35.1 % of the images with contrast deviations are of limited diagnostic use. 23.0 % of the radiographs are characterized by deviations in the sharpness: motion haziness occurs most frequently (in 67.7 %) of the images concerned. Receptor unsharpness and scat-tered radiation are often observed, caused by improper use of radiographic grids and film-screen combinations. The effects on the diagnostic suitability show that 29.6 % of the radiographs with deviations in the sharpness are of limited diagnostic use. Artifacts, most frequently caused by scratches, tears and breaks of the film or the intensifying screen as well as by splashes of the developing resp. fixation reagent or water, are found on 20.7 % of all radiographs. As a result of artifacts 1.2 % of the radiographs examined show defi-cits in their diagnostic suitability. To evaluate the quality of the process the adequacy of indication is determined, which is required for every radiographic examination according to RöV § 2a (ANON. 2003a). An absolute indication can be found in 94.7 % of all images. The quality of the outcome can be discussed in almost halve of all radiographs. The referral diagnosis is medically plausible in 85.5 % of these cases. The results of this study reveal that a considerable portion of the occurring errors in the image quality are caused by a lack of care during taking and processing of the radiographic images. Deficits in the interpretation of the gained information from the radiographic examination occur as well. Since avoidance of unnecessary exposure of humans and the environment to radiation is a major obligation of every user of ionizing radiation, existing deficits regarding the use of projection radiography should be reduced and the transfer of knowledge and practical capabili-ties in this area during the veterinary training should be improved. Furthermore, the elimination of errors by use or improvement of the technical possibilities is important. A new evaluation of the quality of radiographic images from the veterinary practice on the basis of this study seems useful to examine the effects of the steps taken to improve the image quality.:ABKÜRZUNGSVERZEICHNIS IV 1 EINLEITUNG 1 2 LITERATURÜBERSICHT 4 2.1 Strahlenschutz 4 2.1.1 Strahlenbiologische Grundlagen 4 2.1.2 Rechtliche Grundlagen 5 2.1.2.1 Anwendung von Röntgenstrahlen 5 2.1.2.2 Indikationsstellung 6 2.1.3 Technischer und praktischer Strahlenschutz 6 2.2 Bildqualität 8 2.2.1 Ermittlung der Kenngrößen eines Röntgenbildes 8 2.2.1.1 Optische Dichte 9 2.2.1.1.1 Definition der optischen Dichte 9 2.2.1.1.2 Ermittlung der optischen Dichte 10 2.2.1.2 Unschärfe 10 2.2.1.2.1 Definition der Unschärfe 10 2.2.1.2.2 Ermittlung der Unschärfe 12 2.2.1.3 Kontrast 12 2.2.1.3.1 Definition des Kontrastes 12 2.2.1.3.2 Ermittlung des Kontrastes 15 2.2.1.4 Bildrauschen 15 2.2.1.4.1 Definition des Bildrauschens 15 2.2.1.4.2 Ermittlung des Bildrauschens 16 2.2.2 Einflussfaktoren auf die Bildqualität 17 2.2.2.1 Allgemeine Fehlerquellen 17 2.2.2.2 Einfluss von Spannung und Stromstärke 17 2.2.2.3 Einfluss der Streustrahlung 18 2.2.2.4 Rastereinsatz 20 2.2.2.5 Einfluss des Objektes 21 2.2.2.6 Einfluss der Geometrie 22 2.2.2.7 Einfluss von Film und Folie 22 2.2.2.7.1 Röntgenfilm 23 2.2.2.7.2 Verstärkerfolie 24 2.2.2.8 Einfluss der Filmverarbeitung 25 2.2.2.9 Dunkelkammerarbeit 26 2.2.2.10 Artefakte 26 3 TIERE, MATERIAL UND METHODEN 28 3.1 Tiere und Material 28 3.2 Methoden 28 3.2.1 Datenerfassung und Archivierung 28 3.2.2 Befundbogen 28 3.2.2.1 Epidemiologische Daten 29 3.2.2.2 Strukturqualität 29 3.2.2.2.1 Technische Untersuchungsqualität 29 3.2.2.2.2 Technische Bildqualität 30 3.2.2.3 Prozessqualität 31 3.2.2.4 Ergebnisqualität 31 3.2.2.5 Zusammenfassende Beurteilung der Bildqualität 37 3.2.3 Datenauswertung 38 4 ERGEBNISSE 39 4.1 Epidemiologische Daten 39 4.2 Strukturqualität 42 4.2.1 Häufigkeitsanalyse 42 4.2.1.1 Zusammenfassende Beurteilung der Bildqualität 42 4.2.1.2 Technische Untersuchungsqualität 44 4.2.1.2.1 Vollständigkeit der Untersuchung 44 4.2.1.2.2 Art der Entwicklung 44 4.2.1.2.3 Streustrahlenrastereinsatz 45 4.2.1.2.4 Praktischer Strahlenschutz 46 4.2.1.2.5 Vollständige Abbildung der Region 46 4.2.1.2.6 Identifikation der Aufnahme 46 4.2.1.2.7 Kontrastmitteleinsatz 47 4.2.1.3 Technische Bildqualität 48 4.2.1.3.1 Artefakte 48 4.2.1.3.2 Lagerung und Projektion 49 4.2.1.3.3 Bildkontrast 52 4.2.1.3.4 Bildschärfe 54 4.2.2 Fehleranalyse 57 4.2.2.1 Artefakte vs. Art der Entwicklung 57 4.2.2.2 Lagerung und Projektion vs. Projektionsebene 57 4.2.2.3 Lagerung und Projektion vs. Körperregion und Projektionsebene 58 4.2.2.4 Bildschärfe vs. Körperregion und Projektionsebene 59 4.2.2.5 Bildschärfe vs. Rastereinsatz 60 4.2.2.6 Bildkontrast vs. Projektionsebene 62 4.2.2.7 Bildkontrast vs. Rastereinsatz 62 4.2.2.8 Bildkontrast vs. Art der Entwicklung 63 4.3 Strukturqualität – Konstanzanalyse der Tierarztpraxen 63 4.4 Prozessqualität 67 4.5 Ergebnisqualität 67 5 DISKUSSION 69 5.1 Methode der Beurteilung der Bildqualität 69 5.2 Zusammenfassende Beurteilung der Bildqualität 69 5.3 Vollständigkeit der Untersuchung 70 5.4 Art der Entwicklung 71 5.5 Rastereinsatz 72 5.6 Praktischer Strahlenschutz 73 5.7 Artefakte 75 5.8 Lagerung und Projektion 77 5.9 Bildschärfe 78 5.10 Bildkontrast 80 5.11 Kontrastmitteleinsatz 83 5.12 Konstanz innerhalb der Tierarztpraxen 84 5.13 Prozessqualität 85 5.14 Ergebnisqualität 86 5.15 Zusammenfassung der Diskussion und Schlussfolgerung 87 6 ZUSAMMENFASSUNG 90 7 SUMMARY 92 8 LITERATURVERZEICHNIS 94
253

PCA and JPEG2000-based Lossy Compression for Hyperspectral Imagery

Zhu, Wei 30 April 2011 (has links)
This dissertation develops several new algorithms to solve existing problems in practical application of the previously developed PCA+JPEG2000, which has shown superior rate-distortion performance in hyperspectral image compression. In addition, a new scheme is proposed to facilitate multi-temporal hyperspectral image compression. Specifically, the uniqueness in each algorithm is described as follows. 1. An empirical piecewise linear equation is proposed to estimate the optimal number of major principal components (PCs) used in SubPCA+JPEG2000 for AVIRIS data. Sensor-specific equations are presented with excellent fitting performance for AVIRIS, HYDICE, and HyMap data. As a conclusion, a general guideline is provided for finding sensor-specific piecewise linear equations. 2. An anomaly-removal-based hyperspectral image compression algorithm is proposed. It preserves anomalous pixels in a lossless manner, and yields the same or even improved rate-distortion performance. It is particularly useful to SubPCA+JPEG2000 when compressing data with anomalies that may reside in minor PCs. 3. A segmented PCA-based PCA+JPEG2000 compression algorithm is developed, which spectrally partitions an image based on its spectral correlation coefficients. This compression scheme greatly improves the rate-distortion performance of PCA+JPEG2000 when the spatial size of the data is relatively smaller than its spectral size, especially at low bitrates. A sensor-specific partition method is also developed for fast processing with suboptimal performance. 4. A joint multi-temporal image compression scheme is proposed. The algorithm preserves change information in a lossless fashion during the compression. It can yield perfect change detection with slightly degraded rate-distortion performance.
254

Comparative Study of the Inference of an Image Quality Assessment Algorithm : Inference Benchmarking of an Image Quality Assessment Algorithm hosted on Cloud Architectures / En Jämförande Studie av Inferensen av en Bildkvalitetsbedömningsalgoritm : Inferens Benchmark av en Bildkvalitetsbedömingsalgoritm i olika Molnarkitekturer

Petersson, Jesper January 2023 (has links)
an instance has become exceedingly more time and resource consuming. To solve this issue, cloud computing is being used to train and serve the models. However, there’s a gap in research where these cloud computing platforms have been evaluated for these tasks. This thesis aims to investigate the inference task of an image quality assessment algorithm on different Machine Learning as a Service architecture. The quantitative metrics that are being used for the comparison are latency, inference time, throughput, carbon Footprint, and cost. The utilization of Machine Learning has a wide range of applications, with one of its most popular areas being Image Recognition or Image Classification. To effectively classify an image, it is imperative that the image is of high quality. This requirement is not always met, particularly in situations where users capture images through their mobile devices or other equipment. In light of this, there is a need for an image quality assessment, which can be achieved through the implementation of an Image Quality Assessment Model such as BRISQUE. When hosting BRISQUE in the cloud, there is a plethora of hardware options to choose from. This thesis aims to conduct a benchmark of these hardware options to evaluate the performance and sustainability of BRISQUE’s image quality assessment on various cloud hardware. The metrics for evaluation include inference time, hourly cost, effective cost, energy consumption, and emissions. Additionally, this thesis seeks to investigate the feasibility of incorporating sustainability metrics, such as energy consumption and emissions, into machine learning benchmarks in cloud environments. The results of the study reveal that the instance type from GCP was generally the best-performing among the 15 tested. The Image Quality Assessment Model appeared to benefit more from a higher number of cores than a high CPU clock speed. In terms of sustainability, it was observed that all instance types displayed a similar level of energy consumption, however, there were variations in emissions. Further analysis revealed that the selection of region played a significant role in determining the level of emissions produced by the cloud environment. However, the availability of such sustainability data is limited in a cloud environment due to restrictions imposed by cloud providers, rendering the inclusion of these metrics in Machine Learning benchmarks in cloud environments problematic. / Maskininlärning kan användas till en mängd olika saker. Ett populärt verksamhetsområde inom maskininlärning är bildigenkänning eller bildklassificering. För att utföra bildklassificering på en bild krävs först en bild av god kvalitet. Detta är inte alltid fallet när användare tar bilder i en applikation med sina telefoner eller andra enheter. Därför är behovet av en bildkvalitetskontroll nödvändigt. BRISQUE är en modell för bildkvalitetsbedömning som gör bildkvalitetskontroller på bilder, men när man hyr plats för den i molnet finns det många olika hårdvarualternativ att välja mellan. Denna uppsats avser att benchmarka denna hårdvara för att se hur BRISQUE utför inferens på dessa molnhårdvaror både när det gäller prestanda och hållbarhet där inferensens tid, timpris, effektivt pris, energiförbrukning och utsläpp är de insamlade mätvärdena. Avhandlingen söker också att undersöka möjligheten att inkludera hållbarhetsmetriker som energiförbrukning och utsläpp i en maskininlärningsbenchmark i molnmiljöer. Resultaten av studien visar att en av GCPs instanstyper var generellt den bäst presterande bland de 15 som testades. Bildkvalitetsbedömningsmodellen verkar dra nytta av ett högre antal kärnor mer än en hög CPU-frekvens. Vad gäller hållbarhet observerades att alla instanstyper visade en liknande nivå av energianvändning, men det fanns variationer i utsläpp. Ytterligare analys visade att valet av region hade en betydande roll i bestämningen av nivån av utsläpp som producerades av molnmiljön. Tillgången till sådana hållbarhetsdata är begränsade i en molnmiljö på grund av restriktioner som ställs av molnleverantörer vilket skapar problem om dessa mätvärden ska inkluderas i maskininlärningsbenchmarks i molnmiljöer.
255

What Are Radiologists' Perceptions in Regard to Image Quality and Increased Utilization Due to Vendor Provided Deep Learning Signal to Noise Ratio and Deep Learning Reconstruction on 3.0T Magnetic Resonance Imagine?

Venturi, Gianni 02 August 2023 (has links)
No description available.
256

Algorithms to Process and Measure Biometric Information Content in Low Quality Face and Iris Images

Youmaran, Richard January 2011 (has links)
Biometric systems allow identification of human persons based on physiological or behavioral characteristics, such as voice, handprint, iris or facial characteristics. The use of face and iris recognition as a way to authenticate user’s identities has been a topic of research for years. Present iris recognition systems require that subjects stand close (<2m) to the imaging camera and look for a period of about three seconds until the data are captured. This cooperative behavior is required in order to capture quality images for accurate recognition. This will eventually restrict the amount of practical applications where iris recognition can be applied, especially in an uncontrolled environment where subjects are not expected to cooperate such as criminals and terrorists, for example. For this reason, this thesis develops a collection of methods to deal with low quality face and iris images and that can be applied for face and iris recognition in a non-cooperative environment. This thesis makes the following main contributions: I. For eye and face tracking in low quality images, a new robust method is developed. The proposed system consists of three parts: face localization, eye detection and eye tracking. This is accomplished using traditional image-based passive techniques such as shape information of the eye and active based methods which exploit the spectral properties of the pupil under IR illumination. The developed method is also tested on underexposed images where the subject shows large head movements. II. For iris recognition, a new technique is developed for accurate iris segmentation in low quality images where a major portion of the iris is occluded. Most existing methods perform generally quite well but tend to overestimate the occluded regions, and thus lose iris information that could be used for identification. This information loss is potentially important in the covert surveillance applications we consider in this thesis. Once the iris region is properly segmented using the developed method, the biometric feature information is calculated for the iris region using the relative entropy technique. Iris biometric feature information is calculated using two different feature decomposition algorithms based on Principal Component Analysis (PCA) and Independent Component Analysis (ICA). III. For face recognition, a new approach is developed to measure biometric feature information and the changes in biometric sample quality resulting from image degradations. A definition of biometric feature information is introduced and an algorithm to measure it proposed, based on a set of population and individual biometric features, as measured by a biometric algorithm under test. Examples of its application were shown for two different face recognition algorithms based on PCA (Eigenface) and Fisher Linear Discriminant (FLD) feature decompositions.
257

Realtidsövervakning av multicastvideoström / Monitoring of multicast video streaming in realtime

Hassan, Waleed, Hellström, Martin January 2017 (has links)
Den enorma ökningen av multicasttjänster har visat begränsningarna hos traditionella nätverkshanteringsverktyg vid multicastkvalitetsövervakning. Det behövs någon annan form av övervakningsteknik som inte är en hårdvaruinriktad lösning så som ökad länkgenomströmmning, buffertlängd och kapacitet för att förbättra kundupplevelsen. I rapporten undersöks användningen av biblioteken FFmpeg, och OpenCV samt no-reference image quality assessemnt algoritmen BRISQUE för att förbättra tjänstekvaliteten och kundupplevelsen. Genom att upptäcka kvalitetsbrister hos bildrutor samt bitfel i videoströmmen kan QoS och QoE förbättras. Uppgiftens ändamål är att i realtid detektera avvikelser i bildkvalitet och bitfel i en multicastvideoström för att sedan notifiera tjänsteleverantören med hjälp av SNMP traps. Undersökningen visar positiva resultat med en hybridlösning med användning av både BRISQUE och FFmpeg då båda ensamma inte är tillräckligt anpassade för multimediaövervakning. FFmpeg har möjligheten att detektera avkodningsfel som oftast beror på allvarliga bitfel, och BRISQUE algoritmen utvecklades för att analysera bilder och bestämma bildkvaliteten. Enligt testresultaten kan BRISQUE användas för multicastvideoanalysering eftersom att den subjektiva bildkvaliteten kan bestämmas med god pålitlighet. Kombinationen av dessa metoder har visat bra resultat men behöver undersökas mer för användning av multicastövervakning. / The enormous increase in multicast services has shown the limitations of traditional network management tools in multicast quality monitoring. There is a need for new monitoring technologies that are not hardware-based solutions such as increased link throughput, buffer length and capacity to enhance the quality of experience. This paper examines the use of FFmpeg, and OpenCV as well the no-reference image quality assessment algorithm BRISQUE to improve the quality of service as well as the quality of experience. By detecting image quality deficiencies as well as bit errors in the video stream, the QoS and QoE can be improved. The purpose of this project was to develop a monitoring system that has the ability to detect fluctuations in image quality and bit errors in a multicast video stream in real time and then notify the service provider using SNMP traps. The tests performed in this paper shows positive results when using the hybrid solution proposed in this paper, both BRISQUE and FFmpeg alone are not sufficiently adapted for this purpose. FFmpeg has the ability to detect decoding errors that usually occurs due to serious bit errors and the BRISQUE algorithm was developed to analyse images and determine the subjective image quality. According to the test results BRISQUE can be used for multicast video analysis because the subjective image quality can be determined with good reliability. The combination of these methods has shown good results but needs to be investigated and developed further.
258

Design And Assessment Of Compact Optical Systems Towards Special Effects Imaging

Chaoulov, Vesselin 01 January 2005 (has links)
A main challenge in the field of special effects is to create special effects in real time in a way that the user can preview the effect before taking the actual picture or movie sequence. There are many techniques currently used to create computer-simulated special effects, however current techniques in computer graphics do not provide the option for the creation of real-time texture synthesis. Thus, while computer graphics is a powerful tool in the field of special effects, it is neither portable nor does it provide work in real-time capabilities. Real-time special effects may, however, be created optically. Such approach will provide not only real-time image processing at the speed of light but also a preview option allowing the user or the artist to preview the effect on various parts of the object in order to optimize the outcome. The work presented in this dissertation was inspired by the idea of optically created special effects, such as painterly effects, encoded in images captured by photographic or motion picture cameras. As part of the presented work, compact relay optics was assessed, developed, and a working prototype was built. It was concluded that even though compact relay optics can be achieved, further push for compactness and cost-effectiveness was impossible in the paradigm of bulk macro-optics systems. Thus, a paradigm for imaging with multi-aperture micro-optics was proposed and demonstrated for the first time, which constitutes one of the key contributions of this work. This new paradigm was further extended to the most general case of magnifying multi-aperture micro-optical systems. Such paradigm allows an extreme reduction in size of the imaging optics by a factor of about 10 and a reduction in weight by a factor of about 500. Furthermore, an experimental quantification of the feasibility of optically created special effects was completed, and consequently raytracing software was developed, which was later commercialized by SmARTLens(TM). While the art forms created via raytracing were powerful, they did not predict all effects acquired experimentally. Thus, finally, as key contribution of this work, the principles of scalar diffraction theory were applied to optical imaging of extended objects under quasi-monochromatic incoherent illumination in order to provide a path to more accurately model the proposed optical imaging process for special effects obtained in the hardware. The existing theoretical framework was generalized to non-paraxial in- and out-of-focus imaging and results were obtained to verify the generalized framework. In the generalized non-paraxial framework, even the most complex linear systems, without any assumptions for shift invariance, can be modeled and analyzed.
259

Image-based Machine Learning Applications in Nitrate Sensor Quality Assessment and Inkjet Print Quality Stability

Qingyu Yang (6634961) 21 December 2022 (has links)
<p>An on-line quality assessment system in the industry is essential to prevent artifacts and guide manufacturing processes. Some well-developed systems can diagnose problems and help control the output qualities. However, some of the conventional methods are limited in time consumption and cost of expensive human labor. So, more efficient solutions are needed to guide future decisions and improve productivity. This thesis focuses on developing two image-based machine learning systems to accelerate the manufacturing process: one is to benefit nitrate sensor fabrication, and the other is to help image quality control for inkjet printers.</p> <p><br></p> <p>In the first work, we propose a system for predicting the nitrate sensor's performance based on non-contact images. Nitrate sensors are commonly used to reflect the nitrate levels of soil conditions in agriculture. In a roll-to-roll system, for manufacturing thin-film nitrate sensors, varying characteristics of the ion-selective membrane on screen-printed electrodes are inevitable and affect sensor performance. It is essential to monitor the sensor performance in real-time to guarantee the quality of the sensor. We also develop a system for predicting the sensor performance in on-line scenarios and making the neural networks efficiently adapt to the new data.</p> <p><br></p> <p>Streaks are the number one image quality problem in inkjet printers. In the second work, we focus on developing an efficient method to model and predict missing jets, which is the main contributor to streaks. In inkjet printing, the missing jets typically increase over printing time, and the print head needs to be purged frequently to recover missing jets and maintain print quality. We leverage machine learning techniques for developing spatio-temporal models to predict when and where the missing jets are likely to occur. The prediction system helps the inkjet printers make more intelligent decisions during customer jobs. In addition, we propose another system that will automatically identify missing jet patterns from a large-scale database that can be used in a diagnostic system to identify potential failures.</p>
260

Optimisation de l’angiomammographie et de l’angiotomosynthèse double-énergie / Optimization of contrast enhanced digital mammography and contrast enhanced digital breast tomosynthesis

Dromain, Clarisse 07 January 2015 (has links)
Objectifs : L’objectif a été de d’optimiser les protocoles d’acquisition des examens d’angiomammographie double-énergie, d’étudier la faisabilité de l’angiotomosynthèse pour la détection et la caractérisation des tumeurs mammaires, et d’étudier la faisabilité des biopsies stéréotaxiques sous guidage de l’angiomammographie. Méthodes : Une étude d’optimisation des paramètres d’acquisition de l’angiomammographie a été réalisée dans 4 situations cliniques pour lesquelles la qualité diagnostique requise des images de basse énergie et la dose totale délivrée à la patiente ne sont pas identiques. L’optimisation des paramètres d'exposition (anode/filtre, kVp, mAs) des images de basse énergie (BE) et haute énergie (HE) a été réalisée à partir d’une modélisation théorique de la chaîne d’acquisition. Une validation a été effectuée par mesures expérimentales sur des images de fantôme d’inserts d’iode. Nous avons ensuite étudié la technique d’angiotomosynthèse mammaire basée sur une approche double-énergie. Un nouveau fantôme anthropomorphique numérique du sein et de ses lésions, basé sur l’utilisation de primitives géométriques complexes et d’une technique de maillage surfacique, a été amélioré et utilisé pour évaluer les performances de l’angiomammographie optimisée, puis de l’angiotomosynthèse en comparaison à l’angiomammographie. Enfin, nous avons proposé un scénario pour la réalisation d’un examen de stéréotaxie avec injection d’un agent de contraste iodé et étudié la faisabilité de recombinaison d’image de haute et de basse énergie acquises à des temps différents de l’injection.Résultats et conclusion : Les optima des paramètres d’exposition trouvés par simulation avec les valeurs de SDNRpixel et SDNR2pixel /Dosetotale qui en résultent, ont été confirmés expérimentalement. Les valeurs de SDNR par pixel dans les images recombinées sont augmentées pour toutes les indications cliniques en comparaison à celle obtenues avec SenoBright ® (produit commercial de référence). L'impact sur la qualité de l’image de BE, évalué par des expérimentations sur fantôme CDMAM, a montré que les paramètres optimisés fournissent une détection similaire ou acceptable par rapport à la mammographie standard, à l’exception de l'indication de dépistage lorsque l’on considère les objets de très petits diamètres.L’étude de lecture humaine d’images simulées d’un fantôme anthropomorphique du sein incluant le rehaussement glandulaire physiologique et différents modèle tumoraux n’a pas montré d’augmentation significative de sensibilité de détection des acquisition 3D d’angiotomosynthèse comparativement aux acquisitions 2D d’angiomammographie. Les deux paramètres qui influençaient le plus la sensibilité était la concentration en iode des tumeurs et la densité du sein. L’angiomammographie était par ailleurs significativement plus spécifique que l’angiotomosynthèse. Une perspective d’amélioration pour l’angiotomosynthèse pourrait donc être l’utilisation d’algorithmes de reconstruction 3D spécifiques de cette modalité qui minimiseraient le bruit de reconstruction. Le scénario proposé pour la réalisation de biopsies sous guidage de l’angiomammographie, a mis en évidence deux contraintes techniques que sont l’échauffement du tube à rayons X et le surcroit de dose dû à la répétition des paires d’acquisitions en haute et basse énergies. Une des solutions envisagées a été de limiter le nombre d’acquisitions de BE. Notre étude a montré que la recombinaison d’une image HE avec une image BE acquise antérieurement modifiait le SDNR des lésions simulées comparativement à une recombinaison appariée d’images BE et HE acquises au même temps de l’injection. Ces modifications dépendaient du temps du pic de rehaussement maximal et du washout de la lésion. / Objectives: The purpose was to optimize the exposure parameters of CESM examinations, to assess the feasibility of contrast-enhanced DBT (CE-DBT) for the detection and the characterization of breast tumors, and to assess CESM-guided stereotactic biopsies. Methods: At first, we optimized the CESM exposure parameters in four different clinical applications for which different levels of average glandular dose and different low energy image quality are required. The optimization of exposure parameters (anode/filter, kVp, mAs) for low energy (LE) and high energy (HE) images at different levels of average glandular dose and different ratios between LE and total doses has been conducted using a simulator of the x-ray mammographic image chain. An experimental validation was then performed through phantom experiments. Secondly, we assessed the potential of CE-DBT based on a dual-energy approach. A new mesh-based anthropomorphic breast phantom was improved and used to evaluate the performance of CESM and then to compare CESM and CE-DBT. Finally, we evaluated the technical feasibility of CESM-guided biopsy. After identifying some technical constraints, we assessed the performance of the recombination of LE and HE images acquired at different times after injection, using simulated images of a geometric phantom with uniform texture, and simulated images of an anthropomorphic textured phantom with and without motion artifacts.Results and conclusion : For the four different clinical indications, optima found by simulation, with resulting SDNRpixel and SDNR2pixel/Dosetotal, were confirmed through real acquisition of images on phantoms. Our results indicate that the SDNR per pixel in recombined CESM images increased in all of the four clinical indications compared to recombined images obtained using SenoBright ® (commercial product used as reference). This result suggests the possibility to detect more subtle contrast enhancements and to decrease the number of false negatives found in clinical CESM examinations. The impact of a new dose allocation between LE and HE exposures was also evaluated on LE image quality. Results from CDMAM phantom experiments indicate that optimized parameters provide similar or acceptable detection compared to standard mammography, except for screening indication when considering the very small diameter objects.The human observer study on anthropomorphic phantom images, taking into account tumor and breast parenchyma enhancement, revealed that detection and characterization sensitivity of iodine-enhanced lesions are not statistically different between 2D CESM and 3D CE-DBT. The most influencing parameters for the detectability and the lesion size assessment were the lesion iodine concentration and the breast density. CESM was significantly more specific than CE-DBT. One of the assumptions to explain this result is the presence of higher noise in CE-DBT than in CESM images. A future improvement for CE-DBT could therefore be the design of a specific reconstruction algorithm minimizing reconstructed noise.With respect to CESM-guided biopsy the proposed scenario pointed out two major constraints, one related to the thermal load of the x-ray tube, the second related to the increased dose due to the repetition of LE and HE images. One proposed solution was to limit the number of LE exposures, requiring the possibility to recombined LE and HE images acquired at different injection time points. Our study showed that the recombination of a HE image with a LE image acquired earlier leads to SDNR changes compared to paired recombination. These changes are function of the enhancement time to peak and the washout of the lesion, and had a limited impact on the lesion detectability.

Page generated in 0.0633 seconds