• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 144
  • 104
  • 47
  • 19
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 376
  • 82
  • 77
  • 63
  • 62
  • 57
  • 53
  • 47
  • 37
  • 33
  • 31
  • 30
  • 28
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Influences of Watershed Land Cover Pattern on Water Quality and Biotic Integrity of Coastal Plain Streams in Mississippi, USA

Schweizer, Peter E. 29 December 2008 (has links)
No description available.
352

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CA] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442
353

Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation

Vitale, Raffaele 03 November 2017 (has links)
The present Ph.D. thesis, primarily conceived to support and reinforce the relation between academic and industrial worlds, was developed in collaboration with Shell Global Solutions (Amsterdam, The Netherlands) in the endeavour of applying and possibly extending well-established latent variable-based approaches (i.e. Principal Component Analysis - PCA - Partial Least Squares regression - PLS - or Partial Least Squares Discriminant Analysis - PLSDA) for complex problem solving not only in the fields of manufacturing troubleshooting and optimisation, but also in the wider environment of multivariate data analysis. To this end, novel efficient algorithmic solutions are proposed throughout all chapters to address very disparate tasks, from calibration transfer in spectroscopy to real-time modelling of streaming flows of data. The manuscript is divided into the following six parts, focused on various topics of interest: Part I - Preface, where an overview of this research work, its main aims and justification is given together with a brief introduction on PCA, PLS and PLSDA; Part II - On kernel-based extensions of PCA, PLS and PLSDA, where the potential of kernel techniques, possibly coupled to specific variants of the recently rediscovered pseudo-sample projection, formulated by the English statistician John C. Gower, is explored and their performance compared to that of more classical methodologies in four different applications scenarios: segmentation of Red-Green-Blue (RGB) images, discrimination of on-/off-specification batch runs, monitoring of batch processes and analysis of mixture designs of experiments; Part III - On the selection of the number of factors in PCA by permutation testing, where an extensive guideline on how to accomplish the selection of PCA components by permutation testing is provided through the comprehensive illustration of an original algorithmic procedure implemented for such a purpose; Part IV - On modelling common and distinctive sources of variability in multi-set data analysis, where several practical aspects of two-block common and distinctive component analysis (carried out by methods like Simultaneous Component Analysis - SCA - DIStinctive and COmmon Simultaneous Component Analysis - DISCO-SCA - Adapted Generalised Singular Value Decomposition - Adapted GSVD - ECO-POWER, Canonical Correlation Analysis - CCA - and 2-block Orthogonal Projections to Latent Structures - O2PLS) are discussed, a new computational strategy for determining the number of common factors underlying two data matrices sharing the same row- or column-dimension is described, and two innovative approaches for calibration transfer between near-infrared spectrometers are presented; Part V - On the on-the-fly processing and modelling of continuous high-dimensional data streams, where a novel software system for rational handling of multi-channel measurements recorded in real time, the On-The-Fly Processing (OTFP) tool, is designed; Part VI - Epilogue, where final conclusions are drawn, future perspectives are delineated, and annexes are included. / La presente tesis doctoral, concebida principalmente para apoyar y reforzar la relación entre la academia y la industria, se desarrolló en colaboración con Shell Global Solutions (Amsterdam, Países Bajos) en el esfuerzo de aplicar y posiblemente extender los enfoques ya consolidados basados en variables latentes (es decir, Análisis de Componentes Principales - PCA - Regresión en Mínimos Cuadrados Parciales - PLS - o PLS discriminante - PLSDA) para la resolución de problemas complejos no sólo en los campos de mejora y optimización de procesos, sino también en el entorno más amplio del análisis de datos multivariados. Con este fin, en todos los capítulos proponemos nuevas soluciones algorítmicas eficientes para abordar tareas dispares, desde la transferencia de calibración en espectroscopia hasta el modelado en tiempo real de flujos de datos. El manuscrito se divide en las seis partes siguientes, centradas en diversos temas de interés: Parte I - Prefacio, donde presentamos un resumen de este trabajo de investigación, damos sus principales objetivos y justificaciones junto con una breve introducción sobre PCA, PLS y PLSDA; Parte II - Sobre las extensiones basadas en kernels de PCA, PLS y PLSDA, donde presentamos el potencial de las técnicas de kernel, eventualmente acopladas a variantes específicas de la recién redescubierta proyección de pseudo-muestras, formulada por el estadista inglés John C. Gower, y comparamos su rendimiento respecto a metodologías más clásicas en cuatro aplicaciones a escenarios diferentes: segmentación de imágenes Rojo-Verde-Azul (RGB), discriminación y monitorización de procesos por lotes y análisis de diseños de experimentos de mezclas; Parte III - Sobre la selección del número de factores en el PCA por pruebas de permutación, donde aportamos una guía extensa sobre cómo conseguir la selección de componentes de PCA mediante pruebas de permutación y una ilustración completa de un procedimiento algorítmico original implementado para tal fin; Parte IV - Sobre la modelización de fuentes de variabilidad común y distintiva en el análisis de datos multi-conjunto, donde discutimos varios aspectos prácticos del análisis de componentes comunes y distintivos de dos bloques de datos (realizado por métodos como el Análisis Simultáneo de Componentes - SCA - Análisis Simultáneo de Componentes Distintivos y Comunes - DISCO-SCA - Descomposición Adaptada Generalizada de Valores Singulares - Adapted GSVD - ECO-POWER, Análisis de Correlaciones Canónicas - CCA - y Proyecciones Ortogonales de 2 conjuntos a Estructuras Latentes - O2PLS). Presentamos a su vez una nueva estrategia computacional para determinar el número de factores comunes subyacentes a dos matrices de datos que comparten la misma dimensión de fila o columna y dos planteamientos novedosos para la transferencia de calibración entre espectrómetros de infrarrojo cercano; Parte V - Sobre el procesamiento y la modelización en tiempo real de flujos de datos de alta dimensión, donde diseñamos la herramienta de Procesamiento en Tiempo Real (OTFP), un nuevo sistema de manejo racional de mediciones multi-canal registradas en tiempo real; Parte VI - Epílogo, donde presentamos las conclusiones finales, delimitamos las perspectivas futuras, e incluimos los anexos. / La present tesi doctoral, concebuda principalment per a recolzar i reforçar la relació entre l'acadèmia i la indústria, es va desenvolupar en col·laboració amb Shell Global Solutions (Amsterdam, Països Baixos) amb l'esforç d'aplicar i possiblement estendre els enfocaments ja consolidats basats en variables latents (és a dir, Anàlisi de Components Principals - PCA - Regressió en Mínims Quadrats Parcials - PLS - o PLS discriminant - PLSDA) per a la resolució de problemes complexos no solament en els camps de la millora i optimització de processos, sinó també en l'entorn més ampli de l'anàlisi de dades multivariades. A aquest efecte, en tots els capítols proposem noves solucions algorítmiques eficients per a abordar tasques dispars, des de la transferència de calibratge en espectroscopia fins al modelatge en temps real de fluxos de dades. El manuscrit es divideix en les sis parts següents, centrades en diversos temes d'interès: Part I - Prefaci, on presentem un resum d'aquest treball de recerca, es donen els seus principals objectius i justificacions juntament amb una breu introducció sobre PCA, PLS i PLSDA; Part II - Sobre les extensions basades en kernels de PCA, PLS i PLSDA, on presentem el potencial de les tècniques de kernel, eventualment acoblades a variants específiques de la recentment redescoberta projecció de pseudo-mostres, formulada per l'estadista anglés John C. Gower, i comparem el seu rendiment respecte a metodologies més clàssiques en quatre aplicacions a escenaris diferents: segmentació d'imatges Roig-Verd-Blau (RGB), discriminació i monitorització de processos per lots i anàlisi de dissenys d'experiments de mescles; Part III - Sobre la selecció del nombre de factors en el PCA per proves de permutació, on aportem una guia extensa sobre com aconseguir la selecció de components de PCA a través de proves de permutació i una il·lustració completa d'un procediment algorítmic original implementat per a la finalitat esmentada; Part IV - Sobre la modelització de fonts de variabilitat comuna i distintiva en l'anàlisi de dades multi-conjunt, on discutim diversos aspectes pràctics de l'anàlisis de components comuns i distintius de dos blocs de dades (realitzat per mètodes com l'Anàlisi Simultània de Components - SCA - Anàlisi Simultània de Components Distintius i Comuns - DISCO-SCA - Descomposició Adaptada Generalitzada en Valors Singulars - Adapted GSVD - ECO-POWER, Anàlisi de Correlacions Canòniques - CCA - i Projeccions Ortogonals de 2 blocs a Estructures Latents - O2PLS). Presentem al mateix temps una nova estratègia computacional per a determinar el nombre de factors comuns subjacents a dues matrius de dades que comparteixen la mateixa dimensió de fila o columna, i dos plantejaments nous per a la transferència de calibratge entre espectròmetres d'infraroig proper; Part V - Sobre el processament i la modelització en temps real de fluxos de dades d'alta dimensió, on dissenyem l'eina de Processament en Temps Real (OTFP), un nou sistema de tractament racional de mesures multi-canal registrades en temps real; Part VI - Epíleg, on presentem les conclusions finals, delimitem les perspectives futures, i incloem annexos. / Vitale, R. (2017). Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90442
354

Multi-defect detection in hardwood using AI on hyperspectral images

Ytterberg, Kalle January 2024 (has links)
With the evolution of GPU performance, the interest of using AI for all kinds of purposes has risen. Companies today put a great amount of resources to find new ways of using AI to increase the value of their products or automating processes. An area in the wood industry where AI is widely used and studied is in defect detection. In this thesis, the combination of using AI and hyperspectral images is studied and evaluated in the case of segmenting defects in hardwood with a U- Net network structure. The performance is compared to another known method usually used when dealing with high-dimensional data: PLS-DA. This thesis also compares the use of RGB image data in combination with AI, to further analyze the usefulness that the hyperspectral data provide. The results showed signs of improvement when using hyperspectral images com- pared to RGB images when detecting blue stain and red heartwood defects. De- tection of the defects rot and knots did however show no sign of improvements. Due to the annotations being more accurate in the RGB data, the results from the hyperspectral data-fed networks would suggest that blue stain and red heartwood could be of interest regarding further investigation. Computational performance is shown to vary across the different reduction meth- ods, and the results from this thesis provides some insight that might aid in the reasoning regarding how to choose an appropriate reduction method.
355

A multivariate approach to characterization of drug-like molecules, proteins and the interactions between them

Lindström, Anton January 2008 (has links)
En sjukdom kan många gånger härledas till en kaskadereaktion mellan proteiner, co-faktorer och substrat. Denna kaskadreaktion blir många gånger målet för att behandla sjukdomen med läkemedel. För att designa nya läkemedelsmoleyler används vanligen datorbaserade verktyg. Denna design av läkemedelsmolekyler drar stor nytta av att målproteinet är känt och då framförallt dess tredimensionella (3D) struktur. Är 3D-strukturen känd kan man utföra så kallad struktur- och datorbaserad molekyldesign, 3D-geometrin (f.f.a. för inbindningsplatsen) blir en vägledning för designen av en ny molekyl. Många faktorer avgör interaktionen mellan en molekyl och bindningsplatsen, till exempel fysikalisk-kemiska egenskaper hos molekylen och bindningsplatsen, flexibiliteten i molekylen och målproteinet, och det omgivande lösningsmedlet. För att strukturbaserad molekyldesign ska fungera väl måste två viktiga steg utföras: i) 3D anpassning av molekyler till bindningsplatsen i ett målprotein (s.k. dockning) och ii) prediktion av molekylers affinitet för bindningsplatsen. Huvudsyftena med arbetet i denna avhandling var som följer: i) skapa modeler för att prediktera affiniteten mellan en molekyl och bindningsplatsen i ett målprotein; ii) förfina molekyl-protein-geometrin som skapas vid 3D-anpassning mellan en molekyl och bindningsplatsen i ett målprotein (s.k. dockning); iii) karaktärisera proteiner och framför allt deras sekundärstruktur; iv) bedöma effekten av olika matematiska beskrivningar av lösningsmedlet för förfining av 3D molekyl-protein-geometrin skapad vid dockning och prediktion av molekylers affinitet för proteiners bindningsfickor. Ett övergripande syfte var att använda kemometriska metoder för modellering och dataanalys på de ovan nämnda punkterna. För att sammanfatta så presenterar denna avhandling metoder och resultat som är användbara för strukturbaserad molekyldesign. De rapporterade resultaten visar att det är möjligt att skapa kemometriska modeler för prediktion av molekylers affinitet för bindningsplatsen i ett protein och att dessa presterade lika bra som andra vanliga metoder. Dessutom kunde kemometriska modeller skapas för att beskriva effekten av hur inställningarna för olika parametrar i dockningsprogram påverkade den 3D molekyl-protein-geometrin som dockingsprogram skapade. Vidare kunde kemometriska modeller andvändas för att öka förståelsen för deskriptorer som beskrev sekundärstrukturen i proteiner. Förfining av molekyl-protein-geometrin skapad genom dockning gav liknande och ickesignifikanta resultat oberoende av vilken matematisk modell för lösningsmedlet som användes, förutom för ett fåtal (sex av 30) fall. Däremot visade det sig att användandet av en förfinad geometri var värdefullt för prediktion av molekylers affinitet för bindningsplatsen i ett protein. Förbättringen av prediktion av affintitet var markant då en Poisson-Boltzmann beskrivning av lösningsmedlet användes; jämfört med prediktionerna gjorda med ett dockningsprogram förbättrades korrelationen mellan beräknad affintiet och uppmätt affinitet med 0,7 (R2). / A disease is often associated with a cascade reaction pathway involving proteins, co-factors and substrates. Hence to treat the disease, elements of this pathway are often targeted using a therapeutic agent, a drug. Designing new drug molecules for use as therapeutic agents involves the application of methods collectively known as computer-aided molecular design, CAMD. When the three dimensional (3D) geometry of a macromolecular target (usually a protein) is known, structure-based CAMD is undertaken and structural information of the target guides the design of new molecules and their interactions with the binding sites in targeted proteins. Many factors influence the interactions between the designed molecules and the binding sites of the target proteins, such as the physico-chemical properties of the molecule and the binding site, the flexibility of the protein and the ligand, and the surrounding solvent. In order for structure-based CAMD to be successful, two important aspects must be considered that take the abovementioned factors into account. These are; i) 3D fitting of molecules to the binding site of the target protein (like fitting pieces of a jigsaw puzzle), and ii) predicting the affinity of molecules to the protein binding site. The main objectives of the work underlying this thesis were: to create models for predicting the affinity between a molecule and a protein binding site; to refine the geometry of the molecule-protein complex derived by or in 3D fitting (also known as docking); to characterize the proteins and their secondary structure; and to evaluate the effects of different generalized-Born (GB) and Poisson-Boltzmann (PB) implicit solvent models on the refinement of the molecule-protein complex geometry created in the docking and the prediction of the molecule-to-protein binding site affinity. A further objective was to apply chemometric methodologies for modeling and data analysis to all of the above. To summarize, this thesis presents methodologies and results applicable to structure-based CAMD. Results show that predictive chemometric models for molecule-to-protein binding site affinity could be created that yield comparable results to similar, commonly used methods. In addition, chemometric models could be created to model the effects of software settings on the molecule-protein complex geometry using software for molecule-to-binding site docking. Furthermore, the use of chemometric models provided a more profound understanding of protein secondary structure descriptors. Refining the geometry of molecule-protein complexes created through molecule-to-binding site docking gave similar results for all investigated implicit solvent models, but the geometry was significantly improved in only a few examined cases (six of 30). However, using the geometry-refined molecule-protein complexes was highly valuable for the prediction of molecule-to-binding site affinity. Indeed, using the PB solvent model it yielded improvements of 0.7 in correlation coefficients (R2) for binding affinity parameters of a set of Factor Xa protein drug molecules, relative to those obtained using the fitting software.
356

Chemometric and signal processing methods for real time monitoring and modeling : applications in the pulp and paper industry

Björk, Anders January 2007 (has links)
In the production of paper, the quality of the pulp is an important factor both for the productivity and for the final quality. Reliable real-time measurements of pulp quality are therefore needed. One way is to use acoustic or vibration sensors that give information-rich signals and place the sensors at suitable locations in a pulp production line. However, these sensors are not selective for the pulp properties of interest. Therefore, advanced signal processing and multivariate calibration are essential tools. The current work has been focused on the development of calibration routes for extraction of information from acoustic sensors and on signal processing algorithms for enhancing the information-selectivity for a specific pulp property or class of properties. Multivariate analysis methods like Principal Components Analysis (PCA), Partial Least Squares (PLS) and Orthogonal Signal Correction (OSC) have been used for visualization and calibration. Signal processing methods like Fast Fourier Transform (FFT), Fast Wavelet Transform (FWT) and Continuous Wavelet Transform (CWT) have been used in the development of novel signal processing algorithms for extraction of information from vibrationacoustic sensors. It is shown that use of OSC combined with PLS for prediction of Canadian Standard Freeness (CSF) using FFT-spectra produced from vibration data on a Thermo Mechanical Pulping (TMP) process gives lower prediction errors and a more parsimonious model than PLS alone. The combination of FFT and PLS was also used for monitoring of beating of kraft pulp and for screen monitoring. When using regular FFT-spectra on process acoustic data the obtained information tend to overlap. To circumvent this two new signal processing methods were developed: Wavelet Transform Multi Resolution Spectra (WT-MRS) and Continuous Wavelet Transform Fibre Length Extraction (CWT-FLE). Applying WT-MRS gave PLS-models that were more parsimonious with lower prediction error for CSF than using regular FFT-Spectra. For a Medium Consistency (MC) pulp stream WT-MRS gave predictions errors comparable to the reference methods for CSF and Brightness. The CWT-FLE method was validated against a commercial fibre length analyzer and good agreement was obtained. The CWT-FLE-curves could therefore be used instead of other fibre distribution curves for process control. Further, the CWT-FLE curves were used for PLS modelling of tensile strength and optical parameters with good results. In addition to the mentioned results a comprehensive overview of technologies used with acoustic sensors and related applications has been performed. / Vid framställning av pappersprodukter är kvaliteten på massan en viktig faktor för produktiviteten och kvalitén på slutresultatet. Det är därför viktigt att ha tillgång till tillförlitliga mätningar av massakvalitet i realtid. En möjlighet är att använda akustik- eller vibrationssensorer i lämpliga positioner vid enhetsoperationer i massaprocessen. Selektiviteten hos dessa mätningar är emellertid relativt låg i synnerhet om mätningarna är passiva. Därför krävs avancerad signalbehandling och multivariat kalibrering. Det nu presenterade arbetet har varit fokuserat på kalibreringsmetoder för extraktion av information ur akustiska mätningar samt på algoritmer för signalbehandling som kan ge förbättrad informationsselektivitet. Multivariata metoder som Principal Component Analysis (PCA), Partial Least Squares (PLS) and Orthogonal Signal Correction (OSC) har använts för visualisering och kalibrering. Signalbehandlingsmetoderna Fast Fourier Transform (FFT), Fast Wavelet Transform (FWT) och Continuous Wavelet Transform (CWT) har använts i utvecklingen av nydanande metoder för signalbehandling anpassade till att extrahera information ur signaler från vibrations/akustiska sensorer. En kombination av OSC och PLS applicerade på FFT-spektra från raffineringen i en Termo Mechnaical Pulping (TMP) process ger lägre prediktionsfel för Canadian Standard Freeness (CSF) än enbart PLS. Kombinationen av FFT och PLS har vidare använts för monitorering av malning av sulfatmassa och monitorering av silning. Ordinära FFT-spektra av t.ex. vibrationssignaler är delvis överlappande. För att komma runt detta har två signalbehandlingsmetoder utvecklats, Wavelet Transform Multi Resolution Spectra (WT-MRS) baserat på kombinationen av FWT och FFT samt Continuous Wavelet Transform Fibre Length Extraction (CWT-FLE) baserat på CWT. Tillämpning av WT-MRS gav enklare PLS-modeller med lägre prediktionsfel för CSF jämfört med att använda normala FFT-spektra. I en annan tillämpning på en massaström med relativt hög koncentration (Medium Consistency, MC) kunde prediktioner för CSF samt ljushet erhållas med prediktionsfel jämförbart med referensmetodernas fel. Metoden CWT-FLE validerades mot en kommersiell fiberlängdsmätare med god överensstämmelse. CWT-FLE-kurvorna skulle därför kunna användas i stället för andra fiberdistributionskurvor för processtyrning. Vidare användes CWT-FLE kurvor för PLS modellering av dragstyrka samt optiska egenskaper med goda resultat. Utöver de nämnda resultaten har en omfattande litteratursammanställning gjorts över området och relaterade applikationer. / QC 20100629
357

Abiotischer Stress in Weizenblättern: Reaktionen im Photosynthese-Apparat in Relation zum Stressmetabolismus / Abiotic stress in wheat leaves: reactions in photosynthesis processes in relation to stress metabolism

Grimme, Elke 25 January 2007 (has links)
No description available.
358

A existência e a divulgação de ativos intangíveis em processos de fusões & aquisições na frança e o desempenho empresarial financeiro

Feitosa, Evelyn Seligmann 10 November 2011 (has links)
Made available in DSpace on 2016-03-15T19:30:46Z (GMT). No. of bitstreams: 1 Evelyn Seligmann Feitosa.pdf: 4150862 bytes, checksum: c2fb95c13060f06c44c6788bbbfd1fc6 (MD5) Previous issue date: 2011-11-10 / Fundo Mackenzie de Pesquisa / The allocation of resources and the constant search for competitive advantages differentiators to reach best results are always business challenges. In the contemporary context, in order to achieve superior performance, it reinforces the company's need to have, and make good use, of scarce, valuable, non-substitutable and inimitable resources. These resources include brands, customer base, knowledge, ability and competence of the work teams, corporate culture, partnerships and operational processes established, among other intangible assets, usually arising from a long and risky development process. Mergers and acquisitions (M & A) arise, then, as an important strategic action, being an alternative means to obtain and accelerate the accumulation of these resources within the companies. That is the subject of this work, which discusses the importance of existing and intangible assets disclosed, previous to the M & A transactions, their classification into various types, measurement, and impact on the resulting firm's financial performance in long term. The overall objective of this thesis was to analyze how this performance, after a minimum period of 36 months of the event, is related to the existence, level of disclosure and the nature of intangible assets in the organizations involved. One hundred-eighteen (118) companies were investigated in fifty-nine (59) cases of M & A occurred in France between 1997 and 2007; the study reflects a multi-method research, pluralistic, on qualitative and quantitative aspects. Intangible assets disclosure indicators were built by applying the content analysis technique to financial and accounting reports provided by the companies prior to the events, as well as financial indicators (proxies) for the existence of intangibles were calculated. These indicators were initially confronted with each other and later their explanatory power in relation to financial ratios of growth and profitability (for the corporation and its shareholders), which are the analyzed dimensions of financial performance. Many methods for statistical analysis were used in the multivariate data analysis (correlations and factor analysis, multiple regressions) and in the structural equation modeling (SEM), via Partial Least Squares (PLS). A total of twelve models, with statistics significance, were established to express the relationship among the constructs examined. Best results were achieved in the models developed with variables of semantic origin, in detriment of those with financial indicators only. The results obtained in this thesis leads to deduce that, in this study, there are positive relationships between the existence and the disclosure of intangible assets by firms involved in the operations of M & A and subsequent financial performance, measured by the corporate profitability and the growth of the resulting organization. This suggests that the strategic choice for business growth via M & A operations is favorable to the accumulation of intangible assets in the firms, in search for better results. / A alocação de recursos e a constante busca por diferenciais competitivos, visando melhores resultados, são grandes desafios empresariais. No contexto contemporâneo, para obter desempenho superior, reforça-se a necessidade de a empresa dispor, e fazer bom uso, de recursos raros, valiosos, não-substituíveis e de difícil imitação. Dentre estes recursos, destacam-se aspectos como as marcas, a base de clientes, o conhecimento, a capacidade e competência das equipes de trabalho, a cultura corporativa, as parcerias e os processos operacionais estabelecidos, dentre outros ativos intangíveis, geralmente decorrentes de longos e arriscados processos de desenvolvimento. As fusões e aquisições (F&A) surgem, então, como movimentos estratégicos importantes, sendo meio alternativo para obter e acelerar a acumulação destes recursos nas empresas. É essa a temática deste trabalho, que discorre sobre a importância dos ativos intangíveis existentes e divulgados previamente às operações de F&A de empresas, sobre a classificação dos seus diversos tipos, a sua mensuração e o seu impacto sobre o desempenho financeiro da firma resultante, no longo prazo. O objetivo geral desta tese foi analisar como este desempenho, após prazo mínimo de 36 meses do evento, está relacionado à existência, ao nível de divulgação e à natureza dos ativos intangíveis das organizações envolvidas. Foram investigadas 118 empresas, em 59 casos de F&A ocorridos na França entre 1997 e 2007, em uma pesquisa multi-métodos, pluralística, nas vertentes qualitativa e quantitativa. Foram construídos indicadores de divulgação (disclosure) de ativos intangíveis, mediante aplicação da técnica de análise de conteúdos aos relatórios contábil-financeiros disponibilizados pelas empresas antes do evento, e calculados indicadores financeiros (proxies) para a existência de intangíveis. Estes indicadores foram inicialmente confrontados entre si e posteriormente quanto ao seu poder explicativo em relação aos índices financeiros de crescimento e de lucratividade (empresarial e para os acionistas), que são as dimensões analisadas do desempenho financeiro. Utilizaram-se métodos de análise estatística de dados multivariados (análises de correlações, fatoriais, regressões múltiplas) e modelagem em equações estruturais, via Partial Least Squares (SEM- PLS). Foram estabelecidos, no total, doze modelos com significância estatística para expressar o relacionamento entre os construtos examinados. Alcançaram-se melhores resultados nos modelos desenvolvidos com variáveis de origem semântica, em detrimento daqueles que utilizaram indicadores exclusivamente financeiros. Os resultados obtidos nesta tese permitiram deduzir que há relações positivas entre a existência e a divulgação de ativos intangíveis pelas firmas envolvidas nas operações de F&A estudadas e o posterior desempenho financeiro, mensurado pela lucratividade empresarial e pelo crescimento, da organização resultante. Isto sugere que a opção estratégica por crescimento empresarial via operações de F&A é favorável ao acúmulo de recursos intangíveis nas firmas, na busca por melhores resultados.
359

A case study of South African commercial mortgage backed securitisation

Karoly, Viola 30 November 2006 (has links)
Commercial mortgage-backed securitisation (CMBS) is an important development in the South African property finance field. This study explains the characteristics; structure and structuring; advantages, disadvantages and risks; and legal and regulatory aspects of CMBS. Four CMBS programmes have been launched in South Africa to date (August 2006) all of which have been originated by listed Property Loan Stock (PLS) companies. The unique features of the four programmes were examined and the impact on their originators and the listed property sector was analysed. The main participants in the South African CMBS industry were interviewed. CMBS has acted as a catalyst for greater competition between banks resulting in lower interest rates on bank debt and the creation of new property financing products. The introduction of CMBS has benefited not only the four originating PLS companies, but also had a positive impact on the entire listed property sector. / Business Management / M. Com. (Business Management)
360

Multivariate spectroscopic methods for the analysis of solutions

Wiberg, Kent January 2004 (has links)
<p>In this thesis some multivariate spectroscopic methods for the analysis of solutions are proposed. Spectroscopy and multivariate data analysis form a powerful combination for obtaining both quantitative and qualitative information and it is shown how spectroscopic techniques in combination with chemometric data evaluation can be used to obtain rapid, simple and efficient analytical methods. These spectroscopic methods consisting of spectroscopic analysis, a high level of automation and chemometric data evaluation can lead to analytical methods with a high analytical capacity, and for these methods, the term high-capacity analysis (HCA) is suggested. It is further shown how chemometric evaluation of the multivariate data in chromatographic analyses decreases the need for baseline separation. </p><p>The thesis is based on six papers and the chemometric tools used are experimental design, principal component analysis (PCA), soft independent modelling of class analogy (SIMCA), partial least squares regression (PLS) and parallel factor analysis (PARAFAC). The analytical techniques utilised are scanning ultraviolet-visible (UV-Vis) spectroscopy, diode array detection (DAD) used in non-column chromatographic diode array UV spectroscopy, high-performance liquid chromatography with diode array detection (HPLC-DAD) and fluorescence spectroscopy. The methods proposed are exemplified in the analysis of pharmaceutical solutions and serum proteins.</p><p>In Paper I a method is proposed for the determination of the content and identity of the active compound in pharmaceutical solutions by means of UV-Vis spectroscopy, orthogonal signal correction and multivariate calibration with PLS and SIMCA classification. Paper II proposes a new method for the rapid determination of pharmaceutical solutions by the use of non-column chromatographic diode array UV spectroscopy, i.e. a conventional HPLC-DAD system without any chromatographic column connected. In Paper III an investigation is made of the ability of a control sample, of known content and identity to diagnose and correct errors in multivariate predictions something that together with use of multivariate residuals can make it possible to use the same calibration model over time. In Paper IV a method is proposed for simultaneous determination of serum proteins with fluorescence spectroscopy and multivariate calibration. Paper V proposes a method for the determination of chromatographic peak purity by means of PCA of HPLC-DAD data. In Paper VI PARAFAC is applied for the decomposition of DAD data of some partially separated peaks into the pure chromatographic, spectral and concentration profiles. </p>

Page generated in 0.0188 seconds