Spelling suggestions: "subject:"[een] METHOD DEVELOPMENT"" "subject:"[enn] METHOD DEVELOPMENT""
101 |
Desenvolvimento e validação de metodologia para determinação de resíduos de pesticidas piretróides por HPLC em feijão / Development and validation of methodology for determination of pyrethroid pesticide residues by HPLC beansSérgio Henrique Monteiro 13 September 2006 (has links)
Um método rápido utilizando cromatografia liquida (LC) foi desenvolvido para determinação simultânea de 7 pesticidas piretróides (bifentrina, cipermetrina, fenpropatrina, fenvalerato, permetrina, lambda-cialotrina, e deltametrina). Os resíduos são extraídos com acetona e a partição realizada de acordo com o método multi-resíduos DFG-S19, substituindo diclorometano por acetato de etila/ciclohexano (1+1) e purificação usando cromatografia de permeação a gel com uma coluna Biobeads SX3 e acetato de etila/ciclohexano (1+1) como eluente. A separação por LC é realizada com uma coluna LiChrospher 100 RP-18 e acetonitrila/água (8+2) como fase móvel. Os pesticidas são detectados em 212nm. As recuperações dos 7 pesticidas piretróides em amostras de feijão fortificadas em 0,010; 0,100; e 1,000 mg/kg ficaram entre 71-105%. A diferença particular deste método é o limite de quantificação, os quais ficaram entre 0,004-0,011 mg/kg, abaixo de muitos outros métodos de LC descritos na literatura. A cromatografia a gás (GC) com detector de captura de elétrons é mais sensível que a LC, mas o método com LC facilita a identificação dos picos. A GC apresenta muitos picos enquanto a LC apresenta apenas um para a maioria dos piretróides. A análise com LC é uma boa alternativa para a determinação de resíduos de piretróides em feijão. Durante o ano de 2005, um total de 48 amostras de feijão comercializadas na cidade de São Paulo, foram analisadas. Nenhum resíduo de pesticida piretróide foi detectado nas amostras. / A rapid liquid chromatographic (LC) method has been developed for simultaneous determination of 7 pyrethroid insecticides (bifenthrin, cypermethrin, fenpropathrin, fenvalerate, permethrin, lambda-cyhalothrin and deltamethrin) in beans. Residues are extracted from beans with acetone and the partition realized according to the multi-residue method DFG-S19, replacing dichloromethane by ethyl acetate/cyclohexane (1+1) and cleaned up using gel-permeation with a Biobeads SX3 column and ethyl acetate/cyclohexane (1+1) as eluant. LC separation is performed on a LiChrospher 100 RP-18 column with acetonitrile/water (8+2) as mobile phase. The pesticides are detected at 212 nm. Recoveries of 7 pyrethroid insecticides from beans fortified at 0.010; 0.100; 1.000 mg/kg levels were 71-105 %. The particular differential of this method is the quantification limits, which were between 0.004-0.011 mg/kg, lower than most of the limits reported for LC methods described in the literature. The gas chromatographic (GC) with electron capture detection is more sensitive than LC, but the LC method facilitates the identification of the peaks. Analysis of pyrethroids by GC shows several peaks, but LC shows only one for most pyrethroids. The analysis by LC was a good alternative for determination pyrethroid residues in beans. During 2005 year, a total of 48 bean samples commercialized in Sao Paulo City were analyzed. No residues of pyrethroids pesticides were detected in the samples.
|
102 |
Method development of an in vitro vertical Franz diffusion cell system to assess permeation of cosmetic active ingredientsMattiasson, Johanna January 2020 (has links)
For evaluation of potential skincare ingredients, an in-house method using Static Franz diffusion cells and dialysis membranes was developed. Benzoic acid was chosen as a model substance along with L-ascorbic acid and α-Tocopherol. The cell conditions were tailored to encourage transmembrane diffusion. Benzoic acid was tested in acetate buffer (pH 4.6), which yielded a maximum flux of 0.91 ± 0.03 mg ∙ cm-2 ∙ h-1 and absorption of 103 ± 4 % out of the applied dose after 8 h. There were strong indications that benzoic acid ionization must be suppressed by lower pH to increase penetration rates. L-ascorbic acid yielded a flux of 0.29 ± 0.01 mg ∙ cm-2 ∙ h-1 in phosphate buffered saline (PBS, pH 7.4) and absorption of 87 ± 7 % of the applied dose after 8 h. Experiments with α-tocopherol showed no penetration in PBS with added bovine serum albumin (BSA), leading to the hypothesis that more hydrophobic membranes and/or receptor medium are needed for the study of lipophilic compounds. In addition, the release of benzoic acid from the amorphous mesoporous magnesium carbonate Upsalite® was investigated. The results showed significant release and penetration of benzoic acid from the solid matrix in both acetate buffer and PBS. The maximum flux was estimated to 6.61 ± 0.96 mg ∙ cm-2 ∙ h-1 in acetate buffer and 99 ± 9 % of the applied dose was absorbed after 3h. Tests of Upsalite with benzoic acid on hydrophobic silicone and Strat-M membranes showed no significant penetration, likely due to insufficient wetting of the sample. Pre-wetting of Strat-M membrane lead to penetration of benzoic acid into the membrane. Flux rates achieved on synthetic membranes are generally much higher compared to skin, which results in this thesis show. In conclusion, data for pure benzoic acid and L-ascorbic acid in the developed method using dialysis membranes showed reasonable agreement with literature. Penetration of benzoic acid is pH-dependent and may be either increased or decreased by choice of skin model or by using Upsalite as vehicle. Choosing a buffer pH below the pKa of the substance may enhance penetration. Introducing L-ascorbic acid in Upsalite could potentially increase the permeation, similar to that of benzoic acid.
|
103 |
Preference versus Performance in Automated Driving: A Challenge for Method DevelopmentForster, Yannick 27 July 2020 (has links)
Das automatisierte Fahren hat bereits den Weg auf den kommerziellen Markt geschafft und weiterer Fortschritt kann in naher Zukunft erwartet werden. Das Level 3 des automatisierten Fahrens verspricht steigende Sicherheit, Komfort und Verkehrseffizienz. Für den menschlichen Fahrer sind diese Funktionen und damit einhergehende Nutzerschnittstellen eine neuartige Technologie. Im Bereich Human Factors stehen Forschung und Entwicklung vor zwei Herausforderungen, welche (1) der Entwurf von intuitiven und einfach bedienbaren Nutzerschnittstellen und (2) die Entwicklung von Methoden zur Bewertung ebendieser sind. Bei der Bewertung von Technologie wurde bereits häufig auf die sogenannte Preference-Performance Dissoziation aufmerksam gemacht. Diese beschreibt das Ergebnis von Nutzerstudien, in denen die Präferenz (Selbstbericht) der Nutzer nicht mit deren Leistung (beobachtbares Verhalten) übereinstimmt. Dieses Phänomen stellt eine Gefährdung für die Bewertung von Nutzerschnittstellen beim automatisierten Fahren dar. Aufgrund dessen berichtet die vorliegende Dissertation zunächst Untersuchungen zur Messbarmachung von Präferenz und Leistung. Zudem wurde das Verständnis von automatisierten Systemen (mentales Modell) als ein wichtiger Einflussfaktor zur Entstehung des beobachtbaren Verhaltens angenommen und mit in die Arbeiten eingeschlossen. Mithilfe der gewonnenen Erkenntnisse der Messbarmachung widmete sich der zweite Teil der Dissertation den Faktoren, die einen Einfluss auf das Entstehen von Präferenz und/oder Leistung ausüben. Untersuchte Faktoren waren die Anzahl an Wiederholungen von Anwendungsfällen, Rückmeldung zur Bedienleistung, Nutzerschulung und eine statistische post-hoc Analyse. Um die Ziele der Messbarmachung und Einflussnahme zu erreichen wurden drei Fahrsimulatorstudien mit insgesamt N=225 Probanden durchgeführt. Die Haupterkenntnisse waren (1) die Entwicklung einer differenzierten Empfehlung von Fragebögen zur Erfassung der Nutzerpräferenz. Außerdem (2) wurden Erkenntnisse der Entwicklung von Verhaltensmaßen über die Zeit sowie deren Zusammenhang zu Präferenzmaßen gewonnen. Betreffend der mentalen Modelle (3) zeigte die vorliegende Arbeit, dass es wiederholter Interaktion bedarf, damit diese sich korrekt entwickeln. Außerdem kann das Verständnis durch Blickverhaltensmaße erfasst werden. Zusätzlich (4) zeigte sich, dass Leistungsrückmeldung Präferenz, nicht aber Leistung selbst beeinflussen kann. Im Gegensatz dazu (5) wirkt sich Nutzerschulung positiv auf die Korrektheit mentaler Modelle und nachfolgend der Nutzerleistung selbst aus, lässt aber Präferenzmaße unbeeinflusst. Abschließend zeigte sich, dass (6) Nutzer verschiedener Leistungsstufen ähnliche Präferenzurteile fällen. Der theoretische Beitrag der vorliegenden Arbeit liegt in den Einblicken in die Entstehung der beiden Datenquellen der Preference-Performance Dissoziation wodurch diese erklärt und vorhergesagt werden kann. Der praktische Beitrag liegt in der Anwendung der Arbeit zur Messbarmachung von Variablen und Empfehlung zum Studiendesign hinsichtlich Anzahl an Messwiederholungen und Nutzerschulung. Abschließend betreffen die hier gewonnenen Erkenntnisse nicht nur die Bewertung von Nutzerschnittstellen beim automatisierten Fahren, sondern können auch auf andere Automationsbereiche der Mensch-Maschine Interaktion wie beispielsweise Luftfahrt, Robotik oder Medizintechnik übertragen werden. / Driving automation systems have already entered the commercial market and further advancements will be introduced in the near future. Level 3 automated driving systems are expected to increase safety, comfort and traffic efficiency. For the human driver, these functions and according human-machine interfaces are a novel technology. In the human factors domain, research and development faces two challenges which are (1) the conceptualization of intuitive and easy to use interfaces and (2) the development of a methodological framework to evaluate these interfaces. In technology evaluation, a methodological phenomenon has frequently been reported which is called the preference-performance dissociation. It describes the outcome of studies where users' preference (i.e., self-report) does not match their performance (i.e., interaction behavior). This phenomenon poses a threat to the evaluation of automated vehicle HMIs. Therefore, the present thesis first reports investigations on how to operationalize both performance and preference. Moreover, the understanding (i.e., mental model) of automated vehicle HMIs was hypothesized as an influential precursor of performance and included in the present work. Using the insights of the operationalization part, the second part of the thesis aimed at finding out about factors that exert influence on preference and/or performance. Investigated factors were the number of use case repetitions, feedback on operator performance, user education and a post-hoc statistical analysis. To reach the operationalization and variation aims, three driving simulator studies with a total of N=225 participants were conducted. The main outcomes were that (1) a sophisticated recommendation regarding preference questionnaire application could be given. Furthermore, (2) insights into the development of behavioral measures over time and their relation to a satisfaction measure could be given. Concerning mental models, (3) the present work showed that it takes repeated interaction to evolve accurately and gaze measures could also be used for capturing these processes. In addition, (4) feedback on operator performance was found to influence preference but not performance while (5) user education increased understanding and subsequent performance but did not affect preference. Eventually it showed that (6) users of different performance levels report similar preference. The theoretical contribution of this work lies in insights into the formation of the two sources of data and its potential to both explain and predict the preference-performance dissociation. The practical contribution lies in the recommendation for research methodology regarding how to operationalize measures and how to design user studies concerning the number of use cases and user education approaches. Finally, the results gained herein do not only apply to automated vehicle HMIs but might also be generalized to related domains such as aviation, robotics or health care.
|
104 |
Towards a Method for Utilizing Value-based pricing on Smart Services / Mot en metod för värdebaserad prissättning på smarta tjänsterAndreasson, Oskar, Lambrecht, Per Ole January 2022 (has links)
Purpose - The purpose of this thesis was to develop a method for how practitioners can utilize value-based pricing of smart services. In order to fulfill this purpose, the following research questions were addressed: RQ1) How can firms identify value drivers for their smart services in order to understand customer perceived value? RQ2) How can firms match the perceived value of their smart service and what type of revenue model to use (i.e., how to price and how much to price)? RQ3) How can firms use value-based pricing for calculating the optimal price of their smart service? Method - This thesis adopts a mixed method. This is done by collecting data through interviews and surveys. This data is then analyzed and utilized to develop a method for value-based pricing of smart services. Findings - Based on the insights gathered through the explored methods for identifying and measuring value drivers, concluding customers’ willingness to pay, matching it with revenue and pricing mechanisms and finally deriving an optimal price a holistic and structured process that connected these different activities has been proposed (see Appendix S). Theoretical contribution - The major theoretical contribution is the synthesis of three different literature streams (i.e., VBP, revenue model design and smart service commercialization). These areas have, to our knowledge, previously never been integrated in one study. In addition, the developed method successfully addresses identification of value drivers, which previously has been labeled as the biggest barrier for B2B firms wanting to transition towards VBP (Liozu et al., 2012). Practical implications - This thesis supports management in commercialization of smart services by providing a holistic and systematic process for identifying and measuring value drivers, concluding customers’ WTP, matching it with revenue and pricing mechanisms and finally deriving an optimal price based on VBP. The final developed method is presented in Appendix S. / Syfte - Syftet med detta examensarbete var att utveckla en metod för hur praktiker kan utnyttja värdebaserad prissättning av smarta tjänster. För att uppfylla detta syfte togs följande forskningsfrågor upp: RQ1) Hur kan företag identifiera värdedrivare för sina smarta tjänster för att förstå kundens upplevda värde? RQ2) Hur kan företag matcha det upplevda värdet av sin smarta tjänst och vilken typ av intäktsmodell de ska använda (dvs hur man prissätter och hur mycket prissätter man)? RQ3) Hur kan företag använda värdebaserad prissättning för att beräkna det optimala priset för sin smarta tjänst? Metod - Detta exjobb använder en blandad metod. Detta görs genom att samla in data genom intervjuer och enkäter. Denna data analyseras sedan och används för att utveckla en metod för värdebaserad prissättning av smarta tjänster. Resultat - Baserat på de insikter som samlats in genom de utforskade metoderna för att identifiera och mäta värdedrivande faktorer, utnytja kundernas betalningsvilja, matcha den med intäkts- och prissättningsmekanismer och slutligen härleda ett optimalt pris har en holistisk och strukturerad process som kopplar samman dessa olika aktiviteter presenterats (se Bilaga S). Teoretiskt bidrag - Det största teoretiska bidraget är syntesen av tre olika litteraturströmmar (dvs VBP, intäktsmodelldesign och kommersialisering av smarta tjänster). Dessa områden har, såvitt vi vet, tidigare aldrig integrerats i en studie. Dessutom tar den utvecklade metoden framgångsrikt in på identifiering av värdedrivare, som tidigare har stämplats som den största barriären för B2B-företag som vill gå över till VBP (Liozu et al., 2012). Praktiska implikationer - Det här examensarbetet stöder ledning i kommersialisering av smarta tjänster genom att tillhandahålla en holistisk och systematisk process för att identifiera och mäta värdedrivare, avsluta kundernas WTP, matcha den med intäkts- och prissättningsmekanismer och slutligen härleda ett optimalt pris baserat på VBP. Den slutligen utvecklade metoden presenteras i Bilaga S
|
105 |
Automatic compilation and summarization of documented Russian equipment losses in Ukraine : A method development / Automatisk sammanställning och sammanfattning av dokumenterade ryska materielförluster i Ukraina : MetodutvecklingZaff, Carl January 2023 (has links)
Since the Russian invasion of Ukraine on the 24th of February 2022 – most of the United Nations have, in one way or another, participated in the most significant war of many decades. The war is characterized by Russia’s atrocious war crimes, illegal annexations, terror, propaganda, and complete disrespect for international law. On the other hand, the war has also been characterized by Ukrainian resilience, a united Europe, and a new dimension of intelligence gathering through social media.Due to the internet, social media, the accessibility of mobile devices, and Ukraine’s military and civilianeffort in documenting Russian equipment – its whereabouts, status, and quantity, Open-Source Intelligence possibilities have reached new levels for both professionals and amateurs. Despite these improved possibilities, gathering such a vast amount of data is still a Herculean effort.Hence, this study contributes a starting point for anyone wanting to compile equipment losses by providing a process specialized in automatic data extraction and summarization from an existing database. The database in question is the image collection from the military analysis group Oryxspioenkop. To further complement the information provided by Oryxspioenkop, the method automatically extracts and annotates dates from the images to provide a chronological order of the equipment loss as well as a graphical overview.The process shows promising results and manages to compile a large set of data, both the information provided by Oryx and the extracted dates from its imagery. Further, the automated process proves to be many times faster than its manual counterpart, showing a linear relationship between the number of images analysed and manhours saved. However, due to the limited development time – the process still has room for improvement and should be considered semi-automatic, rather than automatic. Nevertheless, thanks to the open-source design, the process can be continuously updated and modified to work with other databases, images, or the extraction of other strings of text from imagery.With the rise of competent artificial image generation models, the study also raises the question if this kind of imagery will be a reliable source in the future when studying equipment losses, or if artificial intelligence will be used as a tool of propaganda and psychological operations in wars to come. / Sedan Rysslands oprovocerade invasion av Ukraina den 24e februari 2022 – har stora delar av de Förenta nationerna engagerat sig i århundradets mest signifikanta krig. Kriget har karaktäriserats av ryska krigsbrott, olagliga annekteringar, terror, propaganda samt en total avsaknad av respekt för folkrätt. I kontrast, har kriget även karaktäriserats av Ukrainas ovillkorliga motståndskraft, ett enat Europa och en ny dimension av underrättelseinhämtning från sociala medier.Genom internet, sociala medier, tillgängligheten av mobiltelefoner och Ukrainas militära och civila ansträngning att dokumentera rysk materiel – vart den befinner sig, vilken status den har samt vilken kvantitet den finns i, har öppen underrättelseinhämtning blomstrat på både professionell och amatörnivå. Dock, på grund av den kvantitet som denna data genereras i, kräver en helhetssammanställning en oerhörd insats.Därav avser detta arbete ge en grund för sammanställning av materielförluster genom att tillhandahålla en automatiserad process för att extrahera data från en befintlig databas. Detta har exemplifierats genom att nyttja bildkollektioner från Oryxspioenkop, en grupp bestående av militäranalytiker som fokuserar på sammanställning av grafiskt material. Utöver detta så kompletterar processen befintliga data genom att inkludera datumet då materielen dokumenterats. Därigenom ges även en kronologisk ordning för förlusterna.Processen visar lovande resultat och lyckas att effektivt och träffsäkert sammanställa stora mängder data. Vidare lyckas processen att överträffa sin manuella motsvarighet och visar på ett linjärt samband mellan antalet analyserade bilder och besparade mantimmar. Dock, på grund av den korta utvecklingstiden har processen fortfarande en del utvecklingsmöjlighet och förblir semiautomatisk, snarare än automatisk. Å andra sidan, eftersom processen bygger på öppen källkod, finns fortsatt möjlighet att uppdatera och modifiera processen för att passa annat källmaterial.Slutligen, i och med den kontinuerliga utvecklingen av artificiell intelligens och artificiellt genererade bilder,lyfter studien frågan om denna typ av data kommer vara en trovärdig källa i framtida analyser av materielförluster, eller om det kommer att förvandlas till verktyg för propaganda och påverkansoperationeri ett framtida krig.
|
106 |
Untersuchungen zum Freisetzungsverhalten von Störkomponenten aus Energierohstoffen unter reduzierenden und oxidierenden BedingungenHommel, Caroline 03 July 2023 (has links)
Die vorliegende Dissertationsschrift beschreibt Experimente zur Weiterentwicklung der Methode der elektrothermischen Verdampfung mit induktiv gekoppeltem Plasma und optischer Emissionsspektroskopie (ETV-ICP OES). Ziel ist die Analyse der Mobilisierung einzelner Elemente in Verbrennungsgasatmosphären, um so das Verschmutzungs- und Verschlackungspotential von Energierohstoffen abschätzen zu können. Zur Simulation der Atmosphäre wird Sauerstoff zum Argon-Gasstrom der Verdampfungseinheit in verschiedenen Verhältnissen zugesetzt, weshalb einige Bauteile der ETV und alle Methodenparameter angepasst werden müssen. Der Einfluss der Gasatmosphäre sowie des Temperaturprogrammes auf die Freisetzung der Elemente wird anhand von drei Kohlen unterschiedlicher Inkohlung und Mineralstoffanteile untersucht und die Analysenmethode dementsprechend optimiert. Im Anschluss erfolgt die Anwendung der entwickelten Methode auf acht Argonne Premium Kohlen sowie auf verschiedene Biomassen und Klärschlämme.:1 Motivation und Aufgabenstellung 12
2 Stand der Technik 15
2.1 Energierohstoffe 15
2.2 Ansatzbildung und Korrosion im Kraftwerk 17
2.2.1 Ansatzbildungsmechanismen 17
2.2.2 Korrosion 20
2.2.3 Freisetzung von Störkomponenten 21
2.2.3.1 Schwefel 21
2.2.3.2 Chlor 21
2.2.3.3 Alkalien 22
2.2.4 Analysemethoden zur Ermittlung der Freisetzung von Störkomponenten 23
3 Eingesetzte Methoden und Parameter 27
3.1 ETV-ICP OES 27
3.2 Thermodynamische Gleichgewichtsberechnungen 31
4 Methodenentwicklung modifizierte ETV-ICP OES 33
4.1 Anpassung des ETV-Systems an simulierte Prozessbedingungen 34
4.1.1 Auswahl der Gasatmosphären 36
4.1.2 Vergleich Standardrohr und SiC-beschichtetes Rohr 38
4.1.3 Einfluss der Beschichtung der Probentiegel 39
4.1.4 Fazit 42
4.2 Temperaturprogramm 43
4.3 Linienauswahl 44
4.4 Kalibration für quantitative Analysen 46
4.5 Datenbearbeitung 49
4.5.1 Korrekturfaktor für Massenbilanz 50
4.5.2 Argon-Korrektur 51
4.5.3 Intensität und Freisetzungsverlauf 53
4.5.4 Zusammenfassung notwendiger Datenbearbeitung 56
4.6 Einfluss der modifizierten Methode auf die Kohlematrix 56
4.6.1 Probenauswahl und Charakterisierung 57
4.6.1.1 Bestimmung der Bindungsformen von Kalium und Natrium 59
4.6.2 Elementfreisetzungsverhalten – Analyse der Kohleproben 64
4.6.2.1 Mineralreiche Kohle – 4419 64
4.6.2.2 Mineralarme Braunkohle – 3922 73
4.6.2.3 Steinkohlestandard – 1632d 81
4.6.2.4 Sonderfall Chlor 87
4.7 Fehlerbetrachtung 89
4.8 Zusammenfassung der Methodenentwicklung 92
5 Anwendung der Methode 96
5.1 Argonne Premium Kohlen 96
5.1.1 Kalium 98
5.1.2 Natrium 101
5.1.3 Schwefel 103
5.1.4 Zusammenfassung der Analysen an den APCs 106
5.2 Klärschlamm 106
5.2.1 Probenauswahl 107
5.2.2 Kalium 108
5.2.3 Natrium 111
5.2.4 Schwefel 113
5.2.5 Phosphor 115
5.2.6 Zusammenfassung der Klärschlammanalysen 118
5.3 Biomasse 118
5.3.1 Probencharakterisierung 119
5.3.2 Freisetzungsverhalten der Elemente 120
5.3.3 Zusammenfassung der Analysen an den Biomassen 123
5.4 Rückschlüsse der Ergebnisse auf reale Prozesse 124
6 Zusammenfassung und Ausblick 126
7 Anhang 130
7.1 Analysenmethoden zur Probencharakterisierung 130
7.1.1 Brennstoffanalyse 130
7.1.2 Röntgenfluoreszenzspektroskopie 131
7.1.3 Röntgendiffraktometrie 132
7.1.4 Thermische Analysen 134
7.1.5 Weitere Parameter für die FactSageTM-Berechnungen 135
7.2 Zusatzinformationen zur Methodenentwicklung 136
7.2.1 Methodenparameter 136
7.2.2 Probencharakterisierung 140
7.3 Zusatzinformationen zur Anwendung der modifizierten Methode 147
7.3.1 APC 147
7.3.2 Klärschlämme 148
8 Referenzen 150
9 Veröffentlichungsliste 160
10 Verzeichnisse 161
10.1 Abbildungsverzeichnis 161
10.2 Tabellenverzeichnis 166
10.3 Abkürzungsverzeichnis 168 / This dissertation describes the development of a method to analyze the mobilization of individual elements in combustion gas atmospheres with the help of electrothermal evaporation in combination with inductively coupled plasma optical emission spectros-copy (ETV-ICP OES) to estimate the pollution and slagging potential of energy feed-stocks. To simulate the atmosphere, oxygen is added to the argon gas stream of the evaporation unit in different ratios. To that end, some components of the ETV unit and all method parameters have to be adjusted. The influence of the gas atmosphere as well as the temperature program on the release of the elements is investigated on the basis of three coals of different degree of carbonization and mineral content and the analysis method is optimized accordingly. Subsequently, the method is applied to analyze eight Argonne Premium coals as well as various biomasses and sewage sludges.:1 Motivation und Aufgabenstellung 12
2 Stand der Technik 15
2.1 Energierohstoffe 15
2.2 Ansatzbildung und Korrosion im Kraftwerk 17
2.2.1 Ansatzbildungsmechanismen 17
2.2.2 Korrosion 20
2.2.3 Freisetzung von Störkomponenten 21
2.2.3.1 Schwefel 21
2.2.3.2 Chlor 21
2.2.3.3 Alkalien 22
2.2.4 Analysemethoden zur Ermittlung der Freisetzung von Störkomponenten 23
3 Eingesetzte Methoden und Parameter 27
3.1 ETV-ICP OES 27
3.2 Thermodynamische Gleichgewichtsberechnungen 31
4 Methodenentwicklung modifizierte ETV-ICP OES 33
4.1 Anpassung des ETV-Systems an simulierte Prozessbedingungen 34
4.1.1 Auswahl der Gasatmosphären 36
4.1.2 Vergleich Standardrohr und SiC-beschichtetes Rohr 38
4.1.3 Einfluss der Beschichtung der Probentiegel 39
4.1.4 Fazit 42
4.2 Temperaturprogramm 43
4.3 Linienauswahl 44
4.4 Kalibration für quantitative Analysen 46
4.5 Datenbearbeitung 49
4.5.1 Korrekturfaktor für Massenbilanz 50
4.5.2 Argon-Korrektur 51
4.5.3 Intensität und Freisetzungsverlauf 53
4.5.4 Zusammenfassung notwendiger Datenbearbeitung 56
4.6 Einfluss der modifizierten Methode auf die Kohlematrix 56
4.6.1 Probenauswahl und Charakterisierung 57
4.6.1.1 Bestimmung der Bindungsformen von Kalium und Natrium 59
4.6.2 Elementfreisetzungsverhalten – Analyse der Kohleproben 64
4.6.2.1 Mineralreiche Kohle – 4419 64
4.6.2.2 Mineralarme Braunkohle – 3922 73
4.6.2.3 Steinkohlestandard – 1632d 81
4.6.2.4 Sonderfall Chlor 87
4.7 Fehlerbetrachtung 89
4.8 Zusammenfassung der Methodenentwicklung 92
5 Anwendung der Methode 96
5.1 Argonne Premium Kohlen 96
5.1.1 Kalium 98
5.1.2 Natrium 101
5.1.3 Schwefel 103
5.1.4 Zusammenfassung der Analysen an den APCs 106
5.2 Klärschlamm 106
5.2.1 Probenauswahl 107
5.2.2 Kalium 108
5.2.3 Natrium 111
5.2.4 Schwefel 113
5.2.5 Phosphor 115
5.2.6 Zusammenfassung der Klärschlammanalysen 118
5.3 Biomasse 118
5.3.1 Probencharakterisierung 119
5.3.2 Freisetzungsverhalten der Elemente 120
5.3.3 Zusammenfassung der Analysen an den Biomassen 123
5.4 Rückschlüsse der Ergebnisse auf reale Prozesse 124
6 Zusammenfassung und Ausblick 126
7 Anhang 130
7.1 Analysenmethoden zur Probencharakterisierung 130
7.1.1 Brennstoffanalyse 130
7.1.2 Röntgenfluoreszenzspektroskopie 131
7.1.3 Röntgendiffraktometrie 132
7.1.4 Thermische Analysen 134
7.1.5 Weitere Parameter für die FactSageTM-Berechnungen 135
7.2 Zusatzinformationen zur Methodenentwicklung 136
7.2.1 Methodenparameter 136
7.2.2 Probencharakterisierung 140
7.3 Zusatzinformationen zur Anwendung der modifizierten Methode 147
7.3.1 APC 147
7.3.2 Klärschlämme 148
8 Referenzen 150
9 Veröffentlichungsliste 160
10 Verzeichnisse 161
10.1 Abbildungsverzeichnis 161
10.2 Tabellenverzeichnis 166
10.3 Abkürzungsverzeichnis 168
|
107 |
Tvorba snoezelen místnosti pro žáky s těžkým mentálním a kombinovaným postižením / Creating snoezelen room for pupils with severe mental and combined disabilitiesHůrková, Lucie January 2019 (has links)
The thesis deals with the creation of Snoezelen room, its characteristics and properties. He is more closely involved with the creation of snoezelen for pupils with mental and combined disabilities who are trained in special primary schools. The work describes the target group, defines the snoezelen method and describes its origin and development in our country and abroad. The main goal of the thesis is to explain to the reader how the rooms are created and what it is necessary to know before deciding to launch the snoezelen room. This information was used mainly by special teachers who operate snoezelena in facilities where they work in schools. The thesis also touches on the topic of education at special schools, methods of working with these pupils and describes types of expressive therapies, therapies, basal stimulation and sensory stimulation. The thesis also reflects the Snoezelen-MSE qualification course in theory and practice, which was the main source. The output of the thesis is a proposed room model, description of equipment and activities that are suitable for working with disadvantaged pupils.
|
108 |
Method development in automated mineralogySandmann, Dirk 11 November 2015 (has links) (PDF)
The underlying research that resulted in this doctoral dissertation was performed at the Division of Economic Geology and Petrology of the Department of Mineralogy, TU Bergakademie Freiberg between 2011 and 2014. It was the primary aim of this thesis to develop and test novel applications for the technology of ‘Automated Mineralogy’ in the field of economic geology and geometallurgy. A “Mineral Liberation Analyser” (MLA) instrument of FEI Company was used to conduct most analytical studies. This automated system is an image analysis system based on scanning electron microscopy (SEM) image acquisition and energy dispersive X-ray spectrometry which can be used to determine both quantitative mineralogical data and mineral processing-relevant parameters. The analyses can be conducted with unconsolidated and solid rocks but also with ores and products of the mineral processing and recycling industry.
In consequence of a first-time broadly-based and comprehensive literature review of more than 1,700 publications related to all types of automated SEM-based image analysis systems several trends in the publication chronicle were observed. Publications related to mineral processing lead the field of automated mineralogy-related publications. However, this is with a somewhat smaller proportion than expected and with a significant decrease in share between around 2000 and 2014. The latter is caused by a gradual but continuous introduction of new areas of application for automated mineralogical analysis such as the petroleum industry, petrology or environmental sciences. Furthermore, the quantity of automated mineralogy systems over time was carefully assessed. It is shown that the market developed from many individual developments in the 1970s and 1980s, often conducted from research institutes, e.g., CSIRO and JKMRC, or universities, to a duopoly - Intellection Pty Ltd and JKTech MLA - in the 1990s and 2000s and finally to a monopoly by FEI Company since 2009. However, the number of FEI’s competitors, such as Zeiss, TESCAN, Oxford Instruments, and Robertson CGG, and their competing systems are increasing since 2011.
Particular focus of this study, published in three research articles in peer-reviewed international journals, was the development of suitable methodological approaches to deploy MLA to new materials and in new contexts. Data generated are then compared with data obtained by established analytical techniques to enable critical assessment and validation of the methods developed. These include both quantitative mineralogical analysis as well as methods of particle characterisation.
The first scientific paper “Use of Mineral Liberation Analysis (MLA) in the Characterization of Lithium-Bearing Micas” deals with the field of mineral processing and describes the characterisation of lithium-bearing zinnwaldite mica - as potential natural resource for lithium - by MLA as well as the achievement of mineralogical association data for zinnwaldite and associated minerals. Two different approaches were studied to comminute the samples for this work, conventional comminution by crusher as well as high-voltage pulse selective fragmentation. By this study it is shown that the MLA can provide mineral data of high quality from silicate mineral resources and results very comparable to established analytical methods. Furthermore, MLA yields additional relevant information - such as particle and grain sizes as well as liberation and grade-recovery data. This combination of quantitative data cannot be attained with any other single analytical method.
The second article “Characterisation of graphite by automated mineral liberation analysis” is also located in the field of mineral processing. This research article is the first published contribution on the characterisation of graphite, an important industrial mineral, by MLA respectively an automated mineralogy-related analytical method. During this study graphite feeds and concentrates were analysed. By this study it is shown that it is possible to gather statistically relevant data of graphite samples by MLA. Furthermore, the MLA results are validated by quantitative X-ray powder diffraction as well as particle size determinations by laser diffraction and sieve analysis.
The third research paper “Nature and distribution of PGE mineralisation in gabbroic rocks of the Lusatian Block, Saxony, Germany” deals with the scientific field of geoscience. In this study it is shown that it is possible to obtain a significant body of novel mineralogical information by applying MLA analysis in a region previously regarded as being well-studied. The complex nature and relatively large distribution of the occurring platinum group minerals (PGM) is well illustrated by this contribution. During previous light microscopic studies and infrequent electron microprobe measurements only a handful isolated PGM grains were identified and characterised. In this investigation, using the samples of previous studies, 7 groups of PGM and 6 groups of associated tellurides as well as in total more than 1,300 mineral grains of both mineral groups were identified. Based on the data obtained, important insight regarding mineral associations, mineral paragenesis and the potential genesis of the PGM is obtained. Within this context, the value of MLA studies for petrological research focused on trace minerals is documented. MLA yields results that are both comprehensive and unbiased, thus permitting novel insight into the distribution and characteristics of trace minerals. This, in turn, is immensely useful when developing new concepts on the genesis of trace minerals, but may also give rise to the development of a novel generation of exploration tools, i.e., mineralogical vectors towards exploration akin to currently used geochemical vectors.
The present dissertation shows that automated mineralogy by using a Mineral Liberation Analyser is able to deliver a unique combination of quantitative data on mineralogy and several physical attributes that are relevant for ore geology and mineral processing alike. It is in particular the automation and unbiasedness of data, as well as the availability of textural data, size and shape information for particles and mineral grains, as well as mineral association and mineral liberation data that define major advantages of MLA analyses - compared to other analytical methods. Despite the fact that results are obtained only on 2-D polished surfaces, quantitative results obtained compare well/very well to results obtained by other analytical methods. This is attributed mainly due to the fact that a very large and statistically sound number of mineral grains/particles are analysed. Similar advantages are documented when using the MLA as an efficient tool to search for and characterise trace minerals of petrological or economic significance. / Die Forschung die der vorliegenden kumulativen Dissertation (‚Publikationsdissertation‘) zugrunde liegt wurde im Zeitraum 2011-2014 am Lehrstuhl für Lagerstättenlehre und Petrologie des Institutes für Mineralogie der TU Bergakademie Freiberg durchgeführt. Das primäre Ziel dieser Arbeit war es neue Einsatzmöglichkeiten für die Technik der Automatisierten Mineralogie im Gebiet der Lagerstättenkunde und Geometallurgie zu entwickeln und zu testen. Im Mittelpunkt der wissenschaftlichen Studien stand die analytische Nutzung des Großgerätes „Mineral Liberation Analyser“ (MLA) der Firma FEI Company. Dieses automatisierte System ist ein Bildanalysesystem und basiert auf der Erfassung von Rasterelektronenmikroskopiebildern und energiedispersiver Röntgen-spektroskopie. Mit Hilfe der MLA-Analysetechnik lassen sich sowohl statistisch gesichert quantitative mineralogisch relevante als auch Aufbereitungsprozess-relevante Parameter ermitteln. Die Analysen können sowohl an Locker- und Festgesteinen als auch an Erzen und Produkten der Aufbereitungs- und Recyclingindustrie durchgeführt werden.
Infolge einer erstmaligen, breit angelegten und umfassenden Literaturrecherche von mehr als 1.700 Publikationen im Zusammenhang mit allen Arten von automatisierten REM-basierten Bildanalysesystemen konnten verschiedene Trends in der Publikations¬historie beobachtet werden. Publikationen mit Bezug auf die Aufbereitung mineralischer Rohstoffe führen das Gebiet der Automatisierte Mineralogie-bezogenen Publikationen an. Der Anteil der Aufbereitungs-bezogenen Publikationen an der Gesamtheit der relevanten Publikationen ist jedoch geringer als erwartet und zeigt eine signifikante Abnahme des prozentualen Anteils zwischen den Jahren 2000 und 2014. Letzteres wird durch eine kontinuierliche Einführung neuer Anwendungsbereiche für die automatisierte mineralogische Analyse, wie zum Beispiel in der Öl- und Gasindustrie, der Petrologie sowie den Umweltwissenschaften verursacht. Weiterhin wurde die Anzahl der Systeme der Automatisierten Mineralogie über die Zeit sorgfältig bewertet. Es wird gezeigt, dass sich der Markt von vielen einzelnen Entwicklungen in den 1970er und 1980er Jahren, die oft von Forschungsinstituten, wie z. B. CSIRO und JKMRC, oder Universitäten ausgeführt wurden, zu einem Duopol - Intellection Pty Ltd und JKTech MLA - in den 1990er und 2000er Jahren und schließlich seit 2009 zu einem Monopol der FEI Company entwickelte. Allerdings steigt die Anzahl der FEI-Konkurrenten, wie Zeiss, TESCAN, Oxford Instruments und Robertson CGG, und deren Konkurrenzsysteme seit 2011.
Ein Schwerpunkt der drei von Experten begutachteten und in internationalen Fachzeitschriften publizierten Artikel dieser Studie war die Entwicklung eines geeigneten methodischen Ansatzes um die MLA-Technik für neue Materialien und in neuem Kontext zu verwenden. Die erzeugten Daten wurden mit Daten die von etablierten analytischen Techniken gewonnen wurden verglichen, um eine kritische Bewertung und Validierung der entwickelten Methoden zu ermöglichen. Dazu gehören sowohl quantitative mineralogische Analysen als auch Methoden der Partikelcharakterisierung.
Der Schwerpunkt der Studie zum ersten Fachartikel „Use of Mineral Liberation Analysis (MLA) in the Characterization of Lithium-Bearing Micas“ liegt im Gebiet der Aufbereitung mineralischer Rohstoffe. Er beschreibt die Charakterisierung von Zinnwaldit-Glimmer - einem potentiellen Lithium-Rohstoff - durch die MLA-Technik sowie das Erringen von Mineralverwachsungsdaten für Zinnwaldit und assoziierter Minerale. Dabei wurden zwei unterschiedliche Wege der Probenzerkleinerung des Rohstoffes untersucht. Zum einen erfolgte eine konventionelle Zerkleinerung der Proben mittels Brecher und Mühle, zum anderen eine selektive Zerkleinerung durch Hoch¬spannungsimpulse. Es konnte aufgezeigt werden, dass die automatisierte Rasterelektronen¬mikroskopie-basierte Bildanalyse mittels MLA von silikatischen Rohstoffen Mineral¬informationen von hoher Güte zur Verfügung stellen kann und die Ergebnisse gut vergleichbar mit etablierten analytischen Methoden sind. Zusätzlich liefert die MLA weitere wertvolle Informationen wie zum Beispiel Partikel-/Mineralkorngrößen, Aussagen zum Mineralfreisetzungsgrad sowie Gehalt-Ausbring-Kurven des Wertstoffes. Diese Kombination von quantitativen Daten kann mit keiner anderen analytischen Einzelmethode erreicht werden.
Der zweite Fachartikel „Characterisation of graphite by automated mineral liberation analysis“ ist ebenfalls im Fachgebiet der Aufbereitung mineralischer Rohstoffe angesiedelt. Während dieser Studie wurden Edukte und Produkte der Aufbereitung von Graphit-Erzen untersucht. Der vorliegende Artikel ist der erste in einer internationalen Fachzeitschrift publizierte Beitrag zur Charakterisierung des Industrieminerals Graphit mittels MLA-Technik bzw. einer Analysenmethode der Automatisierten Mineralogie. Mit der Studie konnte gezeigt werden, dass es möglich ist, auch mit der MLA statistisch relevante Daten von Graphitproben zu erfassen. Darüber hinaus wurden die Ergebnisse der MLA-Analysen durch quantitative Röntgenpulverdiffraktometrie sowie Partikelgrößen-bestimmungen durch Laserbeugung und Siebanalyse validiert.
Der dritte Fachartikel „Nature and distribution of PGE mineralisation in gabbroic rocks of the Lusatian Block, Saxony, Germany“ ist im Gegensatz zu den ersten beiden Artikeln im Gebiet der Geowissenschaften angesiedelt. In dieser Studie wird gezeigt, dass es möglich ist mittels MLA-Analyse eine signifikante Anzahl neuer Daten von einem eigentlich schon gut untersuchten Arbeitsgebiet zu gewinnen. So konnte erst mit der MLA die komplexe Natur und relativ große Verbreitung der auftretenden Platingruppenelement-führenden Minerale (PGM) geklärt werden. Während früherer lichtmikroskopischer Analysen und einzelner Elektronenstrahlmikrosonden-Messungen konnten nur eine Handvoll weniger, isolierter PGM-Körner nachgewiesen und halbquantitativ charakterisiert werden. In der vorliegenden Studie konnten nun, an den von früheren Studien übernommenen Proben, 7 PGM-Gruppen und 6 assoziierte Telluridmineral-Gruppen mit insgesamt mehr als 1.300 Mineralkörnern beider Mineralgruppen nachgewiesen werden. Auf der Grundlage der gewonnenen Daten wurden wichtige Erkenntnisse in Bezug auf Mineralassoziationen, Mineralparagenese und zur möglichen Genese der PGM erreicht. In diesem Zusammenhang wurde der Wert der MLA-Studien für petrologische Forschung mit dem Fokus auf Spurenminerale dokumentiert. Die MLA liefert Ergebnisse, die sowohl umfassend und unvoreingenommen sind, wodurch neue Einblicke in die Verteilung und Charakteristika der Spurenminerale erlaubt werden. Dies wiederum ist ungemein nützlich für die Entwicklung neuer Konzepte zur Genese von Spurenmineralen, kann aber auch zur Entwicklung einer neuen Generation von Explorationswerkzeugen führen, wie zum Beispiel mineralogische Vektoren zur Rohstofferkundung ähnlich wie derzeit verwendete geochemische Vektoren.
Mit der vorliegenden Dissertationsschrift wird aufgezeigt, dass Automatisierte Mineralogie mittels Mineral Liberation Analyser eine einzigartige Kombination an quantitativen Daten zur Mineralogie und verschiedene physikalische Attribute, relevant sowohl für die Lagerstättenforschung als auch für die Aufbereitung mineralischer Rohstoffe, liefern kann. Im Vergleich zu anderen etablierten analytischen Methoden sind es insbesondere die Automatisierung und Unvoreingenommenheit der Daten sowie die Verfügbarkeit von Gefügedaten, Größen- und Forminformationen für Partikel und Mineralkörner, Daten zu Mineralassoziationen und Mineralfreisetzungen welche die großen Vorteile der MLA-Analysen definieren. Trotz der Tatsache, dass die Ergebnisse nur von polierten 2-D Oberflächen erhalten werden, lassen sich die quantitativen Ergebnisse gut/sehr gut mit Ergebnissen anderer Analysemethoden vergleichen. Dies kann vor allem der Tatsache zugeschrieben werden, dass eine sehr große und statistisch solide Anzahl von Mineralkörnern/Partikeln analysiert wird. Ähnliche Vorteile sind bei der Verwendung der MLA als effizientes Werkzeug für die Suche und Charakterisierung von Spurenmineralen von petrologischer oder wirtschaftlicher Bedeutung dokumentiert.
|
109 |
Development and validation of a LC-MS/MS method for analysis of perfluorooctanesulfonic acid and perfluorooctaonic acid in liver organoid mediaHeggebø Rolfsen, Sandra January 2024 (has links)
Per- and polyfluoroalkyl substances (PFAS) are organic synthetic compounds used in several industries because of their unique properties and thermal and chemical stability. Perfluorooctanesulfonic acid (PFOS) and perfluorooctaonic acid (PFOA) are two of the most prominent PFAS that are undegradable and accumulate in nature. To study the impact of PFOS and PFOA on the liver in a controlled environment, organoids can be used. A sensitive and selective LC-MS/MS method for individual and simultaneous analysis of PFOS and PFOA in liver organoid media and equipment used in organoid analyses was developed. For detection of low concentrations, ability to analyse complex organoid samples, and limit background contamination, a solid phase extraction (SPE) column, automatic filter (AFFL) and a trap column was included. The AFFL-SPE-LC-MS/MS was optimised efficiently through Design of Experiment (DoE) regarding the loading phase in the LC and six MS parameters for PFOS and PFOA. Validation was controlled against Eurachem’s guideline showing high sensitivity, detecting LOD at 6 pg/mL. The method demonstrated high repeatability with an RSD below 8 % for most samples. Simultaneous analysis of PFOS and PFOA demonstrated high selectivity. Nevertheless, the method showed low intermediate precision and varying reliability, as well as persistent background contamination limiting detection of lower concentrations. The method was fit for purpose and allowed rapid analysis of PFOS and PFOA in organoid media and equipment used in organoid analyses. Result from studies of PFAS in liver organoids through analysis with this method can aid in understanding the connection between PFAS and metabolic diseases. / Populärvetenskaplig sammanfattning Per- och polyfluorerade alkylsubstanser (PFAS) är en grupp av människoskapta, syntetiska ämnen med unika egenskaper. Dessa egenskaper gör att de är olja- och vattenavvisande, och har många applikationsområden. De finns i textiler, livsmedelsförpackningar, brandsläckningsskum och andra industriprodukter. De är väldigt termiskt och kemisk stabila, vilket gör att de inte bryts ner och därmed ackumulerar i miljön. Flera studier har också visat koppling mellan PFAS och många kroniska sjukdomar, som hormonstörningar, cancer, immunsuppression och metabolt associerad fettlever (MAFLD, tidigare nonalkoholisk fettlever (NAFLD)). Kopplingen mellan MAFLD och PFAS har fått mycket uppmärksamhet då levern har visats sig vara ett målorgan för PFAS. Eftersom PFAS är ihärdiga, har ett komplicerat spridningsbeteende och ackumulerar i naturen är det svårt att studera kopplingen mellan MAFLD och PFAS i en kontrollerad miljö. För att studera effekten av PFAS kan man använda organoider, laboratorieodlade 3D modeller gjord från stamceller för att imitera ett äkta organ. Någon av de mest omtalade PFAS ämnen är perfluoroktansyra (PFOA) och perfluoroktansulfonat (PFOS), vilket är fokus för detta arbete. Leverorganoiderna kan utsättas för PFOS och PFOA, och mediet de ligger i kan extraheras och studeras med konventionella analytiska metoder för att få en bild av hur PFAS påverkar levern. I detta arbete vill analysen ske via vätskekromatografi med masspektrometri som detektion (LC-MS/MS). Med LC-MS/MS separeras den studerade molekylen, analyten från lösningen baserat på dess kemiska egenskaper. Analyten detekteras baserat på dess massa, mer bestämd massa/laddning-fördelningen (m/z). För att anpassa LC-MS metoden till injektion av komplexa organoidprover inkluderades ett automatiskt filter (AFFL) samt ett extra automatiskt separationssteg med en kolonn med fastfasextraktion (SPE). I övrigt ger SPE möjligheten att små mängder PFAS kan uppkoncentreras och fokuseras på kolonnen, vilket ger en sensitiv metod som kan detektera låga koncentrationer. SPE och AFFL implementerades båda för att bättre kunna separera och detektera PFOS och PFOA från andra ämnen, samt filtrera bort föroreningar och stora molekyler som kan skada LC-MS/MS instrumentet i längden. Då PFAS hopar upp sig i vår omgivning, visade det sig att kontamination av PFAS från systemet blev en utmaning under metodutvecklingen. Därför implementerades PFAS fritt utstyr, samt en extra kolonn för att fånga PFAS från systemet och på så sätt minska bakgrundskontaminationen som detekterades. AFFL-SPE-LC-MS/MS metoden optimerades via en maskininlärningsbaserad optimeringsmetod baserad på parametrar i LC och MS. Metoden baserar sig på att, med tre värden för varje parameter, uppger programmet ett antal experiment som måste utföras för att kunna beräkna ett optimalt värde för varje parameter. Med resultatet från experimenten kan modellen matematiskt, genom en Bayes baserat Gaussian modell, uppskatta optimala värden för metoden. På så sätt kunde metoden optimeras systematiskt och tidseffektivt. Innan rutinanvändning måste den optimerade metoden valideras. Validering blev gjord genom at följa Eurachem’s riktlinjer. Metoden visade hög repeterbarhet, selektivitet och riktighet. Den har hög sensitivitet, och kan detektera låga mängder, men bakgrundskontaminationen kunde inte elimineras totalt, och gör att man måste korrigera för detta i rutinanalyser. Komplexiteten av AFFL-SPE-LC-MS/MS med flera kolonner och filter gjorde att metoden visade låg robusthet och behövde justeras ofta. AFFL-SPE-LC-MS/MS metoden gör det möjligt att snabbt studera PFOS och PFOA i leverorganoider och utstyr använt i organoidanalyser, och kan bidra i forskningen för att bättre förstå hur PFAS påverkar levern. / Health Effects of Persistent Organic Pollutants
|
110 |
Development of Analytical Procedures for the Characterization of Polypeptide-Based NanoconjugatesDordevic, Snezana 26 June 2023 (has links)
[ES] Debido a la naturaleza (poli)iónica de los conjugados polipéptido-fármaco (PDC), su traslado a clínica puede ser una tarea complicada y costosa, que requiere técnicas de polimerización reproducibles y escalables, la implementación de herramientas analíticas sofisticadas, pasos de caracterización exhaustivos y la recopilación de datos detallados de seguridad y eficacia.
Algunas técnicas clásicas implementadas en el control de calidad de los PDC no se pueden utilizar para el análisis cualitativo y cuantitativo de productos de degradación y metabolitos. Como alternativa, la espectrometría de masas (MS) y el análisis de fraccionamiento de flujo de campo de flujo asimétrico (AF4) se han posicionado de forma relevante en dicha caracterización de polipéptidos y PDC. Mediante el uso de métodos de LC-MS, se puede realizar el análisis tanto de fármacos como de productos o metabolitos de degradación. Además, dado que la separación en AF4 no se basa en la interacción del analito con la columna, como ocurre en SEC, sino aplicando el flujo cruzado en un canal vacío; en AF4 es posible una separación de moléculas "a medida" según su tamaño y peso molecular dando lugar a la mejora selectiva de la separación.
Teniendo en cuenta lo descrito anteriormente con respecto al diseño de PDC y su caracterización, la investigación incluida en esta tesis se centra en el desarrollo de nuevos procedimientos analíticos que ayuden a la selección de candidatos PDC con las características adecuadas que les permitirán avanzar a su evaluación preclínica. Implementaremos una herramienta de inteligencia artificial, diseño de experimentos, para desarrollar métodos analíticos adecuados y determinar las condiciones óptimas en la síntesis de nanoconjugados polipeptídicos. Además, exploraremos técnicas relativamente nuevas, como AF4 para desarrollar nuevos nanoconjugados polipeptídicos simples y de combinación y además, generaremos imágenes de espectrometría de masas, para entender su comportamiento en modelos preclínicos relevantes, lo que nos permitirá identificar terapias eficaces para una gran variedad de patologías (tumores sólidos avanzados incluyendo cáncer de mama triple negativo, cáncer de próstata y cáncer de páncreas, así como, lesión medular). / [CAT] A causa de la naturalesa (poli)iònica i, de vegades, proteica dels conjugats polipèptid-fàrmac (PDC), el seu trasllat a clínica pot ser una tasca complicada i costosa, que requereix tècniques de polimerització reproduïbles i escalables, la implementació d'eines analítiques sofisticades, passos de caracterització exhaustius i la recopilació de dades detallades de seguretat i eficàcia.
Algunes tècniques clàssiques implementades en el control de qualitat dels PDC no es poden utilitzar per l'anàlisi qualitativa i quantitativa de productes de degradació i metabòlits. Com a alternativa, l'espectrometria de masses (MS) i l'anàlisi del fraccionament de flux de camp de flux asimètric (AF4) han trobat el seu camí en la caracterització de PDC. Mitjançant l'ús de mètodes LC-MS, es pot realitzar l'anàlisi tant de fàrmacs com de productes/metabòlits de degradació. A més, atès que la separació en AF4 no es basa en la interacció de l'analit amb la columna com en SEC sinó aplicant el flux creuat en un canal buit, una separació de molècules "a mesura" segons la seua grandària i pes molecular i la millora selectiva de la separació és possible en l'instrument AF4.
Tenint en compte tot el descrit anteriorment respecte al disseny de PDC i la seua caracterització, la investigació inclosa en aquest projecte es centra en el desenvolupament de nous procediments analítics que ajuden a la selecció de candidats PDC per als seu estudi preclínic posterior. Implementarem una eina d'intel·ligència artificial, disseny d'experiments, per a desenvolupar mètodes analítics i la síntesi de nanoconjugats basats en polipèptids de manera adequada. A més, explorarem tècniques relativament noves, com AF4, i generarem imatges d'espectrometria de masses, per a desenvolupar nous conjugats a la recerca de teràpies eficaces per a tractar una varietat de malalties (càncer de mama triple negatiu, càncer de pròstata, càncer de pàncrees, així com en la lesió de medul·la espinal). / [EN] Due to the (poly)ionic and proteinic nature of polypeptide-drug conjugates (PDCs), their translation "from bench to bedside" represents a complex and expensive undertaking, requiring reproducible and scalable polymerization techniques, the implementation of sophisticated analytical tools, exhaustive characterization steps, and the collection of detailed safety and efficacy data.
Classical techniques, such as liquid chromatography (LC) - UV/Vis and size exclusion chromatography (SEC) implemented in the quality control of PDCs during and after synthesis, cannot always support a qualitative and quantitative analysis of degradation products and metabolites. As an alternative, mass spectrometry (MS) and asymmetric flow field flow fractionation (AF4) have grown in influence on polypeptide and PDC characterization. The analysis of drug and degradation products/metabolites can take advantage of LC when coupled to MS. Meanwhile, AF4-mediated separation does not suffer from problems related to the interaction of the analyte with the column like in SEC; instead, AF4 applies a cross flow in an empty channel, which supports the "tailor-made" separation of molecules according to size and molecular weight.
The research included in this Ph.D. thesis focuses on developing new analytical procedures that will aid the selection of PDC candidates for further preclinical studies. We implemented an artificial intelligence tool (design of experiments) to develop analytical methods and optimize the synthesis of genipin-crosslinked PDCs. Moreover, we explored relatively new techniques, such as AF4 and mass spectrometry imaging, in developing novel single and combination PDCs and studying their biological fate in the search for efficient therapies for a range of diseases (advanced solid tumors, including triple negative breast, prostate, and pancreatic cancer, as well as spinal cord injury). / Dordevic, S. (2023). Development of Analytical Procedures for the Characterization of Polypeptide-Based Nanoconjugates [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194554
|
Page generated in 0.0378 seconds