• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 104
  • 47
  • 19
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 375
  • 82
  • 77
  • 63
  • 62
  • 56
  • 53
  • 47
  • 37
  • 33
  • 31
  • 30
  • 28
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Improvement of ms based e-nose performances by incorporation of chromatographic retention time as a new data dimension

Burian, Cosmin 19 July 2010 (has links)
Mejora del rendimiento de la nariz electrónica basada en espectrometría de masas mediante la incorporación del tiempo de retención cromatografico como una nueva dimensión de datosLa importancia del sentido de olor en la naturaleza y en la sociedad humana queda latente con el gran interés que se muestra en el análisis del olor y el gusto en la industria alimentaria. Aunque las aéreas mas interesadas son las de la alimentación y bebida, también se ha mostrado la necesitad para esta tecnología en otros campos como en el de la cosmética. Lamentablemente, el uso de los paneles sensoriales humanos o paneles caninos son costosos, propensos al cansancio, subjetivos, poco fiables e inadecuados para cuantificar, mientras que el análisis de laboratorio, a pesar de la precisión, imparcialidad y capacidad cuantitativa, necesita una labor intensa, con personal especializado y requiere de mucho tiempo. Debido a estos inconvenientes el concepto de olfato artificial generó un gran interés en entornos industriales.El término "nariz electrónica" se asocia con una serie de sensores de gases químicos, con una amplia superposición de selectividad para las mediciones de compuestos volátiles en combinación con los instrumentos informáticos de análisis de datos. La nariz electrónica se utiliza para proporcionar una información comparativa en vez de una cualitativa en un análisis, y porque la interpretación puede ser automatizada, el dispositivo es adecuado para el control de calidad y análisis. A pesar de algunos logros prometedores, los sensores de estado sólido de gas no han cumplido con sus expectativas. La baja sensibilidad y selectividad, la corta vida del sensor, la calibración difícil y los problemas de deriva han demostrado serias limitaciones. En un esfuerzo para mejorar los inconvenientes de los sensores de estado sólido, se han adoptado nuevos enfoques, utilizando diferentes sensores para la nariz electrónica. Sistemas de sensores ópticos, la espectrometría de movilidad iónica y la espectrometría infrarroja son ejemplos de técnicas que han sido probadas.Las narices electrónicas basadas en la espectrometría de masas (MS) aparecieron por primera vez en 1998 [B. Dittmann, S. y G. Nitz Horner. Adv. Food Sci. 20 (1998), p. 115], y representan un salto importante en la sensibilidad, retando a la nariz electrónica basada en sensores químicos. Este nuevo enfoque del concepto de una nariz electrónica usa sensores virtuales en forma de proporciones m/z. Una huella digital compleja y muy reproducible se obtiene en forma de un espectro de masas, que se procesa mediante algoritmos de reconocimiento de patrones para la clasificación y cuantificación. A pesar de que la nariz electrónica basada en la espectrometría de masas supera a la nariz electrónica clásica de sensores de estado sólido en muchos aspectos, su uso se limita actualmente a la instrumentación de laboratorio de escritorio. La falta de portabilidad no representará necesariamente un problema en el futuro, dado que espectrómetros de masas en miniatura se han fabricado ya en una fase de prototipado.Un inconveniente más crítico de la nariz electrónica basada en MS consiste en la manera en la que se analizan las muestras. La fragmentación simultánea de mezclas complejas de isómeros pueden producir resultados muy similares a raíz de este enfoque. Una nariz electrónica mejor sería la que combina la sensibilidad y el poder de identificación del detector de masas con la capacidad de separación de la cromatografía de gases. El principal inconveniente de este enfoque es de nuevo el coste y la falta de portabilidad de los equipos. Además de los problemas anteriores con la espectrometría de masas, el análisis de cromatografía de gases requiere mucho tiempo de medida.Para abordar estas cuestiones, se han reportado miniaturizaciones en cromatografía capilar de gases (GC) que hacen posible el GC-en-un-chip, CG-rápido y CG-flash que hacen uso de columnas cortas, reduciendo el tiempo de análisis a los tiempos de elución como segundos y, en algunos casos, se han comercializado. La miniaturización de la espectrometría de masas y cromatografía de gases tiene un gran potencial para mejorar el rendimiento, la utilidad y la accesibilidad de la nueva generación de narices electrónicas.Esta tesis se dedica al estudio y a la evaluación del enfoque del GC-MS para la nariz electrónica como un paso anterior al desarrollo de las tecnologías mencionadas anteriormente. El objetivo principal de la tesis es de estudiar si el tiempo de retención de una separación de cromatografía puede mejorar el rendimiento de la nariz electrónica basada en MS, mostrando que la adición de una tercera dimensión trae más información, ayudando a la clasificación de las pruebas. Esto se puede hacer de dos maneras: · comparando el análisis de datos de dos vías de espectrometría de masas con análisis de datos de dos vías de matrices desplegadas y concatenadas para los datos de tres vías y · comparando el análisis de datos de dos vías del espectrometría de masas con el análisis de datos de tres vías para el conjunto de datos tridimensionales.Desde el punto de vista de cromatografía, la meta será la de optimizar el método cromatográfico con el fin de reducir el tiempo de análisis a un mínimo sin dejar de tener resultados aceptables.Un paso importante en el análisis de datos multivariados de vías múltiples es el preprocesamiento de datos. Debido a este objetivo, el último objetivo será el de determinar qué técnicas de preprocesamiento son las mejores para y el análisis de dos y tres vías de datos.Con el fin de alcanzar los objetivos propuestos se crearon dos grupos de datos. El primero consiste en las mezclas de nueve isómeros de dimetilfenol y etilfenol. La razón de esta elección fue la similitud de los espectros de masas entre sí. De esta manera la nariz electrónica basada en espectrometría de masas sería retada por el conjunto de datos. También teniendo en cuenta el tiempo de retención de los nueve isómeros solos, las soluciones se hicieron, como si el conjunto de datos demostraría el reto si se usaría sólo el tiempo de retención. Por tanto, este conjunto de datos "artificiales" sostiene nuestras esperanzas en mostrar las mejoras de la utilización de ambas dimensiones, la MS (espectros de masas) y la GC (tiempo de retención).Veinte clases, representando las soluciones de los nueve isómeros se midieron en diez repeticiones cada una, por tres métodos cromatográficos, dando un total de 600 mediciones. Los métodos cromatográficos fueron diseñados para dar un cromatograma resuelto por completo, un pico coeluido y una situación intermediaria con un cromatograma resuelto parcialmente. Los datos fueron registrados en una matriz de tres dimensiones con las siguientes direcciones: (muestras medidas) x (proporción m/z) x (tiempo de retención). Por "colapsar" los ejes X e Y del tiempo de retención cromatográfica y los fragmentos m/z, respectivamente, se obtuvieron dos matrices que representan los espectros de masa regular y el cromatograma de iones totales, respectivamente. Estos enfoques sueltan la información traída por la tercera dimensión y el despliegue por lo que la matriz original 3D y la concatenación de las TIC y el espectro de masa media se han tenido en consideración como una forma de preservar la información adicional de la tercera dimensión en una matriz de dos dimensiones.Los datos fueron tratados mediante la alineación de picos, con una media de centrado y la normalización por la altura máxima y el área del pico, los instrumentos de pre-procesamiento que también fueron evaluados por sus logros.Para el análisis de datos de dos vías fueron utilizados el PCA, PLS-DA y fuzzyARTMAP. La agrupación de PCA y PARAFAC fueron evaluados por la relación intervariedad - intravariedad, mientras que los resultados mediante fuzzy ARTMAP fueron dados como el éxito de la las tasas de clasificación en porcentajes.Cuando PCA y PARAFAC se utilizaron, como era de esperar, el método de cromatografía resuelto (método 1) dio los mejores resultados globales, donde los algoritmos 2D funcionan mejor, mientras que en un caso más complicado (picos más coeluidos del método 3) pierden eficacia frente a métodos 3D.En el caso de PLS-DA y n-PLS, aunque los resultados no son tan concluyentes como los resultados del PCA y PARAFAC, tratándose de las diferencias mínimas, el modelo de vías múltiples PLS-DA ofrece un porcentaje de éxito en la predicción de ambos conjuntos de datos. También se recomienda el n-PLS en vez de utilizar datos desplegados y concatenados, ya que construye un modelo más parsimonioso.Para el análisis fuzzyARTMAP, la estrategia de votación empleada ha demostrado que al usar los espectros de masa media y la información del cromatograma de iones totales juntos se obtienen resultados más consistentes.En el segundo conjunto de datos se aborda el problema de la adulteración del aceite de oliva extra virgen con aceite de avellana, que debido a las similitudes entre los dos aceites es una de las más difíciles de detectar. Cuatro aceites extra virgen de oliva y dos aceites de avellana se midieron puros y en mezclas de 30%, 10%, 5% y 2% con los mismos objetivos mostrando que la adición de la extra dimensión mejora los resultados. Se han hechos cinco repeticiones para cada preparación, dando un total de 190 muestras: 4 aceites puros de oliva, 2 aceites puros de avellana y 32 adulteraciones de aceite de avellana en aceite de oliva, dando un total de 38 clases. Dos métodos cromatográficos fueron utilizados. El primero estaba dirigido a una completa separación de los componentes del aceite de oliva y empleó una separación con temperatura programable, mientras que el objetivo del segundo método fue un pico coeluido, por lo tanto fue contratada una temperatura constante de separación. Los datos fueron analizados por medio de la PCA, PARAFAC, PLS-DA y PLS-n.Como en el conjunto "artificial" de datos, el PCA y PARAFAC se analizaron por medio de la capacidad de clusterización, que mostró que los mejores resultados se obtienen con los datos desplegados seguido por los datos 3D tratados con el PARAFAC.Desde el punto de vista de optimización de la columna, los logros obtenidos por la columna corta está por debajo del enfoque de la columna larga, pero este caso demuestra una vez más que la adición de los incrementos de tercera dimensión mejoran la nariz electrónica basada en MS.Para el PLS-DA y n-PLS se evaluaron las tasas de éxito comparativamente, tanto para las corridas cromatográficas largas como para las cortas. Mientras que para la columna larga el mejor rendimiento es para los datos del cromatograma de iones totales (TIC), la columna corta muestra mejor rendimiento para los datos concatenados de los espectros de masa media y TIC. Además, la predicción de las tasas de éxito son las mismas para los datos TIC de columna larga como para los datos concatenados de la columna corta. Este caso es muy interesante porque demuestra que el enfoque PLS de la tercera dimensión mejora los resultados y, por otra parte, mediante el uso de la columna corta el tiempo de análisis se acorta considerablemente.Se esperan ciertos logros de la nariz electrónica. Por el momento, ninguno de esos enfoques se acercó lo suficiente para producir una respuesta positiva en los mercados. Los sensores de estado sólido tienen inconvenientes casi imposibles de superar. La nariz electrónica basada en espectrometría de masas tiene una falta de portabilidad y a veces sus logros son insuficientes, y el aparato del cromatógrafo de gases-espectrómetro de masas sufre problemas de portabilidad igual que espectrómetro de masas y toma mucho tiempo. El desarrollo de potentes algoritmos matemáticos durante los últimos años, junto con los avances en la miniaturización, tanto para MS y GC y mostrar cromatografía rápida cierta esperanza de una nariz electrónica mucho mejor.A través de este trabajo podemos afirmar que la adición del tiempo de retención cromatográfica como una dimensión extra aporta una ventaja sobre las actuales tecnologías de la nariz electrónica. Mientras que para los cromatogramas totalmente resueltos no se logran mejoras o la ganancia es mínima, sobre todo en la predicción, para una columna corta la información adicional mejora los resultados, en algunos casos, hacerlos tan bien como cuando una larga columna se utiliza. Esto es muy importante ya que las mediciones en un cromatógrafo de gases - espectrometro de masas se pueden optimizar para tramos muy cortos, una característica muy importante para una nariz electrónica. Esto permitiría el diseño de un instrumento de mayor rendimiento, adecuado para el control de calidad en líneas de productos.
162

Dammsäkerhetsutvärdering samt utformning av dammregister och felrapporteringssystem för svenska gruvdammar / Dam Safety Evaluation and Development of a Database for Swedish Tailings Dams

Isaksson, Nils, Lundström, Helena January 2005 (has links)
A lot of mine waste rock and tailings arise from all mining processes and have to be stored in an appropriate way. Tailings are deposited in impoundments retained by tailings dams. The objective of tailings dams is to retain the slurry from the mining process and in that way prevent spill into the surroundings that might be harmful for the environment. Tailings dams are often constructed as staged embankments so that construction costs and demand of materials are spread more evenly over the period of deposition. The objective of this thesis has been to compile information about and evaluate events at Swedish tailings dams and also to develop a collective database for all Swedish mining companies for all tailings dams and all events that occur at tailings dams. Information about 60 events at Swedish tailings dams has been gathered and evaluated. The evaluation has been performed by comparison between and analysis of individual parameters and also by use of a multivariate statistical method called PLS. The statistical analysis shows a decrease in the numbers of events during the last five years, which indicates improved dam safety within the mining industry. The analysis also shows that severe events and the human factor might be related when it comes to the initiating cause of the event. Further relations between the parameters and the severity of the events can be seen from the PLS-analysis, for example that low and short tailings dams to a greater extent are subjected to severe events. To be able to draw more reliable conclusions further studies with a more complete basic data are needed. This work has shown a need of a collective database within the Swedish mining industry for tailings dams and occurring events at tailings dams so that more complete basic data could be obtained for future studies. A structure for such a database has been developed in Microsoft Access 2000. The aim of the database is to facilitate feedback within the mining industry and to gather comprehensive data for future statistical evaluations. / Vid alla gruvprocesser skapas stora mängder restprodukter i form av gråberg och anrikningssand som måste tas om hand på lämpligt sätt. Anrikningssanden deponeras tillsammans med vatten från gruvprocessen i magasin omgärdade av dammvallar, s.k. gruvdammar. Gruvdammar har som syfte att hålla kvar anrikningssand och vatten och måste vara stabila så att de skyddar omgivningen från utsläpp av anrikningssand som skulle kunna vara skadligt för miljön. En gruvdamm byggs ofta upp i etapper eftersom byggkostnaderna och behovet av dammfyllnadsmaterial då sprids över tiden. Syftet med arbetet har varit att sammanställa och utvärdera händelser vid svenska gruvdammar samt att utforma ett för gruvindustrin gemensamt dammregister och felrapporteringssystem. 60 händelser vid svenska gruvdammar har sammanställts och utvärderats. Utvärderingen har genomförts dels genom att enskilda parametrar jämförts och analyserats och dels med hjälp av den multivariata analysmetoden PLS. Den statistiska analysen visar på en minskning i antal händelser under de senaste fem åren, vilket tyder på ett förbättrat dammsäkerhetsarbete inom gruvindustrin. Analysen har kunnat uppvisa ett samband mellan allvarliga händelser och den mänskliga faktorn när det gäller vad det är som initierat händelserna. Genom PLS-analysen har ytterligare samband mellan de undersökta parametrarna och allvarlighetsgraden av händelserna kunnat utläsas, bl.a. visar analysen att låga och korta dammar i större utsträckning drabbas av allvarliga händelser jämfört med höga och långa dammar. För att säkra slutsatser ska kunna dras krävs dock vidare studier med ett mer komplett statistiskt underlag. Examensarbetet har påvisat ett behov av ett branchgemensamt damm- och felrapporteringsregister för att ett mer komplett underlag ska kunna erhållas i framtiden. En färdig databasstruktur för ett sådant dammregister och felrapporteringsregister för svenska gruvdammar har utformats. Databasen är uppbyggd i Microsoft Access 2000 och är tänkt att underlätta erfarenhetsåterföring inom branschen samt att ge ett underlag för framtida statistiska undersökningar.
163

Plant Condition Measurement from Spectral Reflectance Data / Växttillståndsmätningar från spektral reflektansdata

Johansson, Peter January 2010 (has links)
The thesis presents an investigation of the potential of measuring plant condition from hyperspectral reflectance data. To do this, some linear methods for embedding the high dimensional hyperspectral data and to perform regression to a plant condition space have been compared. A preprocessing step that aims at normalized illumination intensity in the hyperspectral images has been conducted and some different methods for this purpose have also been compared.A large scale experiment has been conducted where tobacco plants have been grown and treated differently with respect to watering and nutrition. The treatment of the plants has served as ground truth for the plant condition. Four sets of plants have been grown one week apart and the plants have been measured at different ages up to the age of about five weeks. The thesis concludes that there is a relationship between plant treatment and their leaves' spectral reflectance, but the treatment has to be somewhat extreme for enabling a useful treatment approximation from the spectrum. CCA has been the proposed method for calculation of the hyperspectral basis that is used to embed the hyperspectral data to the plant condition (treatment) space. A preprocessing method that uses a weighted normalization of the spectrums for illumination intensity normalization is concluded to be the most powerful of the compared methods.
164

Modellering och styrning av flis till en sulfatkokare / Modelling and control of wooden chips to a sulphate digester

Ohlsson, Staffan January 2005 (has links)
At the Skoghall pappermill, sulphatepaper pulp is produced in a continuous digester originally from 1969. To be able to maintain a high level of production there is a need for a process with few disturbances. Variations in how well the wooden chips are packed in the digester is one form of disturbance. Today there are no available measurements on how well the chips are packed. Instead this is regarded as being constant. The variation in the so called bulk density of the chips is mainly due to variations in the percentage with small dimensions. Chips are classified in relation to their size and one of the smallest classes is referred to as pin chips. These are believed to have a big impact on the bulk density. The amount of pin chips fluctuate more then the other classes, there by causing disturbances. The Skoghall pappermill has invested in a ScanChip. This is an instrument that measures the dimensions of the chips optically. ScanChip presents figures on chip quality, including a measurement of the bulk density. However, it has been shown that this measurement is not valid for the Skoghall pappermill. By using data from ScanChip a model that predicts how well the chips are packed has been devised. This value is the bulk density divided by the basic density. The model has proved to yield good results, despite a relatively small amount of data. A theoretical value of the amount of produced pulp has been computed based on the revolutions of the production screw that feeds chips into the digester. This value takes in consideration how well the chips are packed. The value has shown great similarities with the empirical measurements that are used today. A simulation during one month has shown that differences in the mixture of chips have effected the measurement of produced pulp with up to 7 ton/h. Chips are stored in open pile storages before they are being used in the process of transforming them into pulp. Four screws are used to move chips from the piles to conveyer belts. It has been shown in work done previously, that the movement of the screws contributes to variations in the amount of pin chips measured by ScanChip. During the work with this master’s thesis I have found that there are variations in the piles that make it difficult to predict the amount of pin chips accordingly. However by filtering the measurements of pin chips to remove these variations, the results are improved. A new way of controlling the movements of the screws was operational on the 10 of March and this improved the results. The direction in which the screws are moving influence the speed of the screws, mainly in the pile with the so called sawmill chips. By changing the amount of chips that each screw puts out, the differences in speed have been reduced. The mixtures found in the two piles are not completely homogenous. There are a greater amount of pin chips in the northern parts compared with the southern parts. This could be an effect of the wind direction, and will still cause variations.
165

Contextual Effects in the Usage Intention of Mobile Games

Chen, Pei-yu 15 January 2007 (has links)
As the mobile devices are popularized, the population of mobile Internet is increasing year by year. The mobile application service includes mobile information, mobile entertainment, mobile transaction, and mobile location service. The most growing market is the mobile game. According the prediction of Juniper¡¦s research, the output value of global mobile game industry will reach 9.7 billion dollars. To research the sunrise industry topic, the Theory of Reasoned Action (TRA) and the Technology Acceptance Model (TAM) are integrated in this thesis. Contextual Effects in the Usage Intention of Mobile Games. The causal relationship of perceived playfulness, perceived ease of use, attitude, subjective norm, and intention is researched. The influence of location, task, and subjective norm on intention is also studied. According to the research and the result of PLS analysis, the Theory of Reasoned Action and the Technology Acceptance Model are verified in this thesis. Additionally, the assumptions proposed in this research are verified and proved. Some results are derived in this research. The perceived ease of use positively influences the perceived playfulness. The perceived playfulness and the perceived ease of use positively influence the attitude. The attitude and the subjective norm positively influence the intention. The interaction of the location and the subjective norm will regulate the intention. The interaction of the task and the subjective norm will not regulate the intention. Some further TAM Model results are derived in this research. The perceived playfulness and the perceived ease of use positively influence the intention. The influence of location, task, and perceived playfulness on intention is also studied. Finally, according to the result of the study, some suggestions are proposed for future research.
166

Identification des paramètres d'authenticité du lait et des produits laitiers

Martin del Campo Barba, Sandra Teresita 08 December 2006 (has links) (PDF)
Dans le présent travail, la pertinence de la spectroscopie moyen infrarouge à transformée de Fourier (IRTF), combinée avec des techniques chimiométriques, pour identifier quelques paramètres d'authenticité de laits et de fromages est évaluée. Les modèles discriminants, obtenus à partir des profils spectraux MIR, ont permis de : - classer les échantillons de lait et de produits similaires selon leur dénomination, - de prédire l'âge de fromages de type Camembert et Emmental, - de prédire différents paramètres physicochimiques caractéristiques de fromages de type Camembert pendant leur affinage. Les meilleurs modèles discriminants entre les échantillons de lait, en fonction de leur authenticité et de leur niveau d'adultération, ont été obtenus pour le profil des acides grases méthylés (FAMES). Les résultats montrent que la spectroscopie moyenne infrarouge à transformée de Fourier (IRTF) constitue une méthode rapide et directe pour identifier les laits et produits similaires, et pour prédire les durées d'affinage de fromages de type Camembert et Emmental. Mots Clés: Spectroscopie infrarouge, authenticité, lait, affinage de fromage, Camembert, Emmental, ACP, PLS, ADG
167

Apprentissage dans les espaces de grande dimension : Application à la caractérisation de tumeurs noires de la peau à partir d'images

Tenenhaus, Arthur 08 December 2006 (has links) (PDF)
L'objectif de la thèse est de définir les bases conceptuelles permettant de développer des méthodes efficaces et adaptées à la classification dans les espaces de grande dimension. Dans ce contexte, les méthodes à noyau s'avèrent particulièrement adaptées. En effet, au-delà de leurs propriétés de régularisation - régularisation de type Tikhonov (Régression Ridge, Support Vector Machines, ... ) ou réduction de dimension (Partial Least Squares, Régression sur Composantes Principales,...) – elles offrent des avantages algorithmiques majeurs lorsque la dimension des données est supérieure au nombre d'observations. Ces méthodes ont fait l'objet d'une étude approfondie à la fois du point de vue théorique et appliqué dans les deux premiers chapitres de la thèse.<br /><br />Les deux chapitres suivants proposent de nouvelles méthodes, découlant de cette étude. Elles se fondent sur des principes de réduction de dimension supervisée en se focalisant principalement sur la régression PLS, particulièrement bien adaptée à la gestion de données de grande dimension. Il s'agissait de concevoir des algorithmes de classification s'appuyant sur les principes algorithmiques de la régression PLS. Nous avons proposé, la Kernel Logistic PLS, modèle de classification nonlinéaire et binaire basé à la fois sur la construction de variables latentes et sur des transformations du type Empirical Kernel Map. Nous avons étendu la KL-PLS au cas où la variable à prédire est polytomique donnant naissance à la Kernel Multinomial Logistic PLS regression.<br />Enfin dans les deux derniers chapitres, nous avons appliqué ces méthodes à de nombreux domaines, notamment en analyse d'images. Nous avons ainsi contribué au développement d'une application en vraie grandeur dans le domaine médical en élaborant un outil d'aide au diagnostic de tumeurs noires de la peau à partir d'images.
168

Multi-state PLS based data-driven predictive modeling for continuous process analytics

Kumar, Vinay 09 July 2012 (has links)
Today’s process control industry, which is extensively automated, generates huge amounts of process data from the sensors used to monitor the processes. These data if effectively analyzed and interpreted can give a clearer picture of the performance of the underlying process and can be used for its proactive monitoring. With the great advancements in computing systems a new genre of process monitoring and fault detection systems are being developed which are essentially data-driven. The objectives of this research are to explore a set of data-driven methodologies with a motive to provide a predictive modeling framework and to apply it to process control. This project explores some of the data-driven methods being used in the process control industry, compares their performance, and introduces a novel method based on statistical process control techniques. To evaluate the performance of this novel predictive modeling technique called Multi-state PLS, a patented continuous process analytics technique that is being developed at Emerson Process Management, Austin, some extensive simulations were performed in MATLAB. A MATLAB Graphical User Interface has been developed for implementing the algorithm on the data generated from the simulation of a continuously stirred blending tank. The effects of noise, disturbances, and different excitations on the performance of this algorithm were studied through these simulations. The simulations have been performed first on a steady state system and then applied to a dynamic system .Based on the results obtained for the dynamic system, some modifications have been done in the algorithm to further improve the prediction performance when the system is in dynamic state. Future work includes implementing of the MATLAB based predictive modeling technique to real production data, assessing the performance of the algorithm and to compare with the performance for simulated data. / text
169

MULTIVARIATE CHARACTERIZATION OF LIGNOCELLULOSIC BIOMASS AND GRAFT MODIFICATION OF NATURAL POLYMERS

KRASZNAI, DANIEL 29 February 2012 (has links)
The plant cell wall contains significant quantities of renewable polymers in the form of cellulose, hemicellulose, and lignin. These three renewable polymers have the potential to complement or replace synthetic polymers in a variety of applications. Rapidly determining the quantities of these polysaccharides in lignocellulosic biomass is important yet difficult since plant biomass is recalcitrant and highly variable in composition. Part of this contribution outlines a novel compositional analysis protocol using infrared spectroscopy and multivariate regression techniques that is rapid and inexpensive. Multivariate regression models based on calibration mixtures can be used to discern between populations of lignocellulosic biomass or to predict cellulose, hemicellulose, and lignin quantities. Thus, the compositional analysis step can be expedited so that other processes, like fractionation of the lignocellulose polymers, can be tuned accordingly to maximize the value of the final product. Hybrid materials were also generated using a variety of polymerization techniques and post-polymerization modifications. A novel controlled/living radical polymerization initiator was synthesized (2-bromo-2-methylpropane hydrazide) containing a hydrazide functionality that was covalently linked to the reducing-end of dextran. Despite the rapid coupling of the hydrazide- based initiator to the reducing-end of dextran, the instability of the alkyl bromide bond resulted in several unsuccessful attempts at Cu(0)-mediated controlled/living radical polymerization. Recommendations were given to improve the stability of this compound; however, an alternative approach to synthesizing hybrid copolymers was also investigated in parallel. Hyperbranched polymers were synthesized using commercially available vinyl and divinyl monomers in the presence of a cobalt(II) complex that enabled control over the size, architecture, and mol% of pendant vinyl groups amenable to post-polymerization modification. Modifying the ratio of divinyl monomer to cobalt(II) complex provided a series of hyperbranched polymers with variable morphology and mol% pendant vinyl groups. The pendant vinyl bonds were subsequently converted to amines via thiol additions with cysteamine. These amine functionalized hyperbranched polymers were then used in a subsequent reductive amination reaction with the reducing-end of dextran to produce the amphiphilic core-shell copolymer poly(methyl methacrylate-co-ethylene glycol dimethacrylate)-b-dextran. These amphiphilic copolymers mimicked the colloidal behaviour of conventional block copolymer micelles without requiring difficult syntheses or tedious self-assembly steps. / Thesis (Master, Chemical Engineering) -- Queen's University, 2012-02-28 11:20:01.568
170

Data-based Harmonic Source Identification

Erfanian Mazin, Hooman Unknown Date
No description available.

Page generated in 0.043 seconds