• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 6
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 20
  • 13
  • 10
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Experimental design applied to the selection of samples and sensors in multivariate calibration

Ferré Baldrich, Joan 24 February 1998 (has links)
Els models de calibratge multivariant relacionen respostes instrumentals (per exemple, espectres) d'un conjunt de mostres de calibratge amb quantitats de variables físiques o químiques tals com concentració d'analit, o índexs (per exemple, el nombre d'octà en gasolines). Aquesta relació es fa servir per predir aquestes quantitats a partir de les respostes instrumentals de noves mostres desconegudes, mesurades de la mateixa manera. La predicció emprant models de calibratge multivariants està esdevenint un pas comú en els procediments analítics. Per tant, l'habilitat del model de donar prediccions precises i no esbiaixades té una influència decisiva en la qualitat del resultat analític. És important que les mostres de calibratge i els sensors es triïn adequadament de manera que els models pugin representar adequadament el fenomen en estudi i assegurar la qualitat de les prediccions. En aquesta tesi s'ha estudiat la selecció de mostres de calibratge d'un a llista de mostres candidates en regressió sobre components principals (PCR) i la selecció de longituds d'ona en el model de mínims quadrats clàssics (CLS). El fonament l'ha donat la teoria del disseny estadístic d'experiments. En PCR, el nombre mínim de mostres de calibratge es tria emprant les respostes instrumentals de les mostres candidates. La concentració d'analit només cal determinar-la en les mostres seleccionades. S'han proposat diferents usos del criteri d'optimalitat D.En CLS, s'han interpretat diferents criteris per la selecció de longituds d'ona des del punt de vista de l'el·lipsoide de confiança de les concentracions predites. Els criteris també s'han revisat de manera crítica d'acord amb el seu efecte en la precisió, exactitud i veracitat (que s'han revisat d'acord amb les definicions ISO). Basat en la teoria del disseny d'experiments, s'han donat les regles per a la selecció de sensors. A demés, s'ha proposat un nou mètode per a detectar i reduir el biaix en les prediccions de noves mostres predites mitjançant CLS. Conclusions1. Criteris d'optimalitat del disseny d'experiment en MLR s'han aplicat per triar longituds d'ona de calibratge en CLS i el nombre mínim de mostres de calibratge en MLR i PCR a partir de les respostes instrumentals o scores de components principals d'una llista de candidats. Aquests criteris són un alternativa a (i/o complementen) el criteri subjectiu de l'experimentador. Els models construïts amb els punts triats per aquests criteris tenen una menor variància dels coeficients o concentracions i una millor habilitat de predicció que els models construïts amb mostres triades aleatòriament.2. El criteri D s'ha emprat amb èxit per triar mostres de calibratge en PCR i MLR, per triar un grup reduït de mostres per a comprovar la validesa de models de PCR abans d'estandarditzar-los i per triar longituds d'ona en CLS a partir de la matriu de sensibilitats. Les mostres de calibratge que són D òptimes generalment donen models de PCR i MLR amb una millor habilitat de predicció que quan les mostres de calibratge es trien aleatòriament o emprant l'algorisme de Kennard-Stone 3. Cal emprar algorismes d'optimització per trobar, els subconjunts de I punts òptims entre una llista de N candidats. En aquest treball es van emprar els algorismes de Fedorov, de Kennard-Stone i algorismes genètics.4. L'el·lipsoide de confiança de les concentracions estimades i la teoria del disseny d'experiments proporcionen el marc per interpretar l'efecte dels sensors triats amb aquests criteris en els resultats de predicció del model i per definir noves regles per triar longituds d'ona. 5. L'eficàcia dels criteris de selecció en CLS basats en la matriu de calibratge necessiten que no hi hagi biaix en la resposta dels sensors triats. La qualitat de les dades s'ha de comprovar abans de que s'empri el mètode de selecció de longituds d'ona. 6. La senyal analítica neta (NAS) és important pera comprendre el procés de quantificació en CLS i la propagació dels errors a les concentracions predites. S'han emprat diagnòstics tals com la sensibilitat, selectivitat i el gràfic de regressió del senyal analític net (NASRP), que es basen en el NAS d'un analit particular. S'ha vist que la norma del NAS està relacionada amb l'error de predicció. 7. El NASRP és una eina per a detectar gràficament si la resposta mesurada de la mostra desconeguda segueix el model calculat. La concentració estimada és el pendent de la recta ajustada als punts de gràfic. plot. Els sensors amb biaix es poden detectar i els sensors que segueixen el model es poden triar emprant la funció indicador d'Error i un mètode de finestres mòbils. / Multivariate calibration models relate instrumental responses (e.g. spectra) of a set of calibration samples to the quantities of chemical or physical variables such as analyte concentrations, or indexes (e.g. octane number in fuels). This relationship is used to predict these quantities from the instrumental response data of new unknown samples measured in the same manner. Prediction using multivariate calibration models is becoming one common step in the analytical procedure. Therefore, the ability of the model to give precise and unbiased predictions has a decisive influence on the quality of the analytical result. It is important that the calibration samples and sensors be carefully selected so that the models can properly represent the phenomenon under study and assure the quality of the predictions.We have studied the selection of calibration samples from the list of all the available samples in principal component regression (PCR) and the selection of wavelengths in classical least squares (CLS). The underlying basis has been given by experimental design theory. In PCR, the minimum number of calibration samples are selected using the instrumental responses of the candidate samples. The analyte concentration is only determined in the selected samples. Different uses of the D-criterion have also been proposed.In CLS, different criteria for wavelength selection have been interpreted from the point of view of the experimental design using the confidence hyperellipsoid of the predicted concentrations. The criteria have also been critically reviewed according to their effect on precision, accuracy and trueness (which are revised following ISO definitions). Based on the experimental design theory, new guidelines for sensor selection have been given. Moreover, a new method for detecting and reducing bias in unknown samples to be analyzed using CLS.Conclusions1. Optimality criteria derived from experimental design in MLR have been applied to select calibration wavelengths in CLS and the minimum number of calibration samples in MLR and PCR from the instrumental responses or principal component scores of a list of candidates. These criteria are an alternative (and/or a complement) to the experimenter's subjective criterion. The models built with the points selected with the proposed criteria had a smaller variance of the coefficients or concentrations and better predictive ability than the models built with the samples selected randomly 2. The D-criterion has been successfully used for selecting calibration samples in PCR and MLR, for selecting a reduced set of samples to assess the validity of PCR models before standardization and for selecting wavelengths in CLS from the matrix of sensitivities. D optimal calibration samples generally give PCR and MLR models with a better predictive ability than calibration samples selected randomly or using the Kennard-Stone algorithm. 3. Optimization algorithms are needed to find the optimal subsets of I points from a list of N candidates. Fedorov's algorithm, Kennard-Stone algorithm and Genetic Algorithms were studied here. 4. The confidence ellipsoid of the estimated concentrations and the experimental design theory provide the framework for interpreting the effect of the sensors selected with these criteria on the prediction results of the model and for deriving new guidelines for wavelength selection. 5. The efficacy of the selection criteria in CLS based on the calibration matrix requires there to be no bias in the response at the selected sensors. The quality of the data must be checked before a wavelength selection method is used. 6. The net analyte signal (NAS) is important to understand the quantification process in CLS and the propagation of errors to the predicted concentrations. Diagnostics such as sensitivity, selectivity and net analyte signal regression plots (NASRP) which are based on the NAS for each particular analyte have been used. The norm of the NAS has been found to be related to the prediction error . 7. The NASRP is a tool for graphically detecting whether the measured response of the unknown sample follows the calculated model. The estimated concentration is the slope of the straight line fitted to the points in this plot. The sensors with bias can be detected and the sensors that best follow the model can be selected using the Error Indicator function and a moving window method.
2

Estudio de los factores pronósticos en la sarcoidosis: análisis de la persistencia de actividad mediante técnicas multivariantes

Mañá Rey, Joan Mª 29 March 1990 (has links)
a) INTRODUCCIÓN.La sarcoidosis es una enfermedad cuya evolución puede oscilar desde formas asintomáticas o con eritema nudoso con remisión espontánea, hasta cuadros progresivamente incapacitantes a pesar de un tratamiento con corticoides. La dificultad fundamental se plantea en poder identificar, en la presentación inicial de la enfermedad, aquellos datos que ayuden a establecer un pronóstico y, en consecuencia, a indicar un tratamiento. En la literatura médica sobre el pronóstico se han analizado sólo aspectos parciales de la enfermedad y no se ha utilizado una metodología estadística adecuada. En el Hospital de Bellvitge de Barcelona se dispone de una amplia casuística de pacientes con sarcoidosis y el establecimiento del pronóstico y la indicación de tratamiento son especialmente problemáticos. Por dicho motivo se inició un estudio con los siguientesb) OBJETIVOS1) Estudiar la casuística de sarcoidosis del hospital.2) Estudiar los factores pronósticos de persistencia de actividad de la enfermedad en el tiempo, mediante técnicas estadísticas univariantes y multivariantes.c) MATERIAL Y METODOS1) Casuística general: El estudio abarcó un periodo de 14 años y se efectuó en el Servicio de Medicina Interna del Hospital de Bellvitge, en colaboraci6n con otros servicios. A todos los pacientes incluidos en el estudio se les exigió confirmación anatomopatológica, excepto si se trataba de un síndrome de Lofgren.y fueron sometidos a un protocolo de estudio prospectivo que incluía datos referidos a formas clínicas, estadios radiológicos, marcadores de actividad, evolución y tratamiento.2) Estudio de los factores pronósticos: El pronóstico se definió como "la persistencia de actividad de la enfermedad en el transcurso del tiempo". La actividad se definió como "la presencia de datos clínicos y/o de alteraciones radiológicas y/o de alteraciones en los marcadores de actividad, persistentes o cambiantes en el tiempo. A partir del protocolo de estudio se definieron las variables que se estudiaron como factores pronósticos.3) Metodología estadística: se efectuaron dos tipos de análisis estadísticos:1º) Análisis de la persistencia de actividad a los 2 años del diagnóstico, mediante el test de chi-cuadrado y el test de regresión logística múltiple.2º) Análisis de la persistencia de actividad en el transcurso del tiempo, mediante Curvas actuariales (Kaplan-Meier) y el test de Mantel-Cox, y el test de Cox para Curvas actuariales ("Cox proportional hazards regression models"). Con esta metodología se realizaron dos análisis: uno con variables clínicas y otro que incluía además a los marcadores de actividad.d) RESULTADOS1) Casuística general: Se estudiaron 209 pacientes, con una edad media de 40 años y una relación mujer/varón de 3: 1. Destacó el elevado número de formas clínicas con eritema nudoso (62.7%) y la mayor frecuencia de estadio 1 en la radiografía de tórax (59.3%). Los niveles séricos de la enzima de conversión de la angiotensina fueron superiores a 2 DE en el 44% de los pacientes con eritema nudoso y en el 65% de los pacientes sin eritema nudoso. La captación endotorácica de galio-67 fue predominantemente en forma de estadio 1 (67.3%). Un 16% de los casos presentaron disminución de la capacidad vital y un 17% del test de difusión del monóxido de carbono. El 64% de los pacientes a los que se practicó lavado broncoalveolar presentó alveolitis de alta intensidad (linfocitosis superior al 28%).2) Estudio de los factores pronósticos: El estudio clínico de persistencia de actividad a los 2 años incluyó a 155 pacientes y las variables que se asociaron con independencia de las demás a un mal pronóstico fueron: ausencia de eritema nudoso, edad superior a 40 años, esplenomegalia y afectación del parénquima en la radiografía de tórax. El estudio clínico de persistencia de actividad en el transcurso del tiempo incluyó 193 casos y las variables que con independencia de las demás se asociaron a un mal pronóstico fueron: ausencia de eritema nudoso, afectación del parénquima en la radiografía de tórax, esplenomegalia, edad avanzada y ausencia de adenopatías en la radiografía de tórax. El estudio clínico y de los marcadores de actividad, de persistencia de actividad en el tiempo, incluyó 116 casos y las variables que con independencia de 1as demás se asociaron a un mal pronóstico fueron: ausencia de eritema nudoso, edad avanzada, elevación del nivel sérico de la enzima de conversión de la angiotensina, hipergammaglobulinemia, disminución de la capacidad vital y sexo varón.e) DISCUSIONLa sarcoidosis no es infrecuente en nuestro medio. La elevada frecuencia del síndrome de Löfgren destaca sobre el 17% de la media mundial, mientras que la distribución por estadios radiológicos es similar a la del resto de las series. Para el estudio de los factores pronósticos es necesario definir el concepto de pronóstico y el de actividad. La metodología estadística empleada muestra que para el estudio del pronóstico el test de Cox para curvas actuariales es superior al test de regresión logística múltiple. Las variables asociadas a un mal pronóstico tienen todas ellas un sentido clínico. Los marcadores de actividad son útiles en el seguimiento de la enfermedad, así como en el establecimiento del pronóstico.f) CONCLUSIONESLas conclusiones más importantes de la presente tesis son las siguientes:1) En nuestro medio, la sarcoidosis no es infrecuente y el síndrome de Lofgren es la forma clínica más común.2) El test de Cox para curvas actuariales es la metodología estadística multivariante más apropiada para estudiar el pronóstico de la enfermedad.3) En el estudio clínico, las variables asociadas a un mal pronóstico fueron: ausencia de eritema nudoso, afectación del parénquima en la radiografía de tórax, esplenomegalia, edad avanzada y ausencia de adenopatías en la radiografía de tórax.4) En el estudio conjunto clínico y de los marcadores de actividad las variables asociadas a un mal pronóstico fueron: ausencia de eritema nudoso, edad avanzada, elevación del nivel sérico de la ECA. hipergammaglobulinemia, disminución de la capacidad vital y sexo varón. En consecuencia, los marcadores de actividad son útiles para establecer el pronóstico de la sarcoidosis.5) El problema del pronóstico en la sarcoidosis se plantea fundamentalmente en las formas sin eritema nudoso. En consecuencia, un estudio del pronóstico realizado en una serie amplia de pacientes sin eritema nudoso podía proporcionar información más especifica para esta forma clínica de la enfermedad. / The aim of this study was to define the prognostic factors in sarcoidosis using univariate and multivariate statistical methods (Cox proportional hazards regression model).We studied prospectively 209 patients suffering from sarcoidosis, during a 14 year period (1974-1987) in Bellvitge Hospital (Barcelona). The prognosis was defined as "persistence of activity of the disease by means of clinical, radiological and other markers".Main results:1) Our population with sarcoidosis had a high incidence of erythema nooosum (62.7%) and a predominance of stage 1 on x-ray. The activity markers (serum angiotensin converting enzyme, pulmonary gallium scan, pulmonary function test, and broncoalveolar lavage) showed to be a useful follow-up parameter.2) Prognostic factors: A Cox proportional-hazards regression model picked the following variables: absence of erythema nodosum (Risk Ratio=2'78), greater than 40 years (Risk Ratio=1'67), elevation of serum angiotensin converting enzyme (Risk Ratio=1'45), immunoglobulin level elevation (Risk Ratio=2'47), vital capacity decrease (Risk Ratio=2'17), and male sex (Risk Ratio=1'8) as independent predictors of bad prognosis. We suggest that accurate definition of prognostic factors in sarcoidosis may provide a better treatment approach for the disease.
3

Construction of Bivariate Distributions and Statistical Dependence Operations

Casanova Gurrera, María de los Desamparados 29 April 2005 (has links)
Dependence between random variables is studied at various levels in the first part, while the last two chapters are devoted to the construction of bivariate distributions via principal components. Chapter 1 of Preliminaries is devoted to general dependence concepts (Fréchet classes, copulas, and parametric families of distributions). In Chapter 2, we generalize the union and intersection operations of two distance matrices to symmetric nonnegative definite matrices. These operations are shown to be useful in the geometric interpretation of Related Metric Scaling (RMS ), and possibly in other approaches of Multivariate Analysis. They show relevant properties that are studied in this chapter. The behaviour of the operations is, in some way, analogous to that presented by the intersection and union between vector spaces; in particular, we prove that the intersection of orthogonal matrices is the null matrix, while the union is the direct sum of the matrices. Matrices that share their eigenvectors form an equivalence class, and a partial order relation is defined. This class is closed for the union and intersection operations. A continuous extension of these operations is presented in Chapter 3. Infinite matrices are studied in the context of bounded integral operators and numerical kernels. We put the basis for extending RMS to continuous random variables and, hence, infinite matrices. The starting point is Mercer's Theorem, which ensures the existence of an orthogonal expansion of the covariance kernel K (s, t) = min {F (s) , F (t)} - F (s) F (t), where F is the cumulative distribution function of each marginal variable. The sets of eigenvalues and eigenfunctions of K, whose existence is ensured by the cited theorem, allow us to define a product between symmetric and positive (semi)definite kernels, and, further, to define the intersection and the union between them. Results obtained in the discrete instance are extended in this chapter to continuous variables, with examples. Such covariance kernels (symmetric and positive definite) are associated with symmetric and positive quadrant dependent (PQD) bivariate distributions. Covariance between functions of bounded variation defined on the range of some random variables, joined by distributions of this type, can be computed by means of their cumulative distribution functions. In Chapter 4, further consequences are obtained, especially some relevant relations between the covariance and the Fréchet bounds, with a number of results that can be useful in the characterization of independence as well as in testing goodness-of-fit. The intersection of two kernels (defined in Chapter 3) is a particular instance of the covariance between functions. Covariance is a quasiinner product defined through the joint distribution of the variables involved. A measure of affinity between functions with respect to H is defined, and also studied. In Chapter 5, from the concept of affinity between functions via an extension of the covariance, we define the dimension of a distribution, we relate it to the diagonal expansion and find the dimension for some parametric families. Diagonal expansions of bivariate distributions (Lancaster) allows us to construct bivariate distributions. It has proved to be adequate for constructing Markov processes, and has also been applied to engineering problems among other uses. This method has been generalized using the principal dimensions of each marginal variable that are, by construction, canonical variables. We introduce in Chapter 6 the theoretical foundations of this method. In Chapter 7 we study the bivariate, symmetric families obtained when the marginals are Uniform on (0, 1), Exponential with mean 1, standard Logistic, and Pareto (3,1). Conditions for the bivariate density, first canonical correlation and maximum correlation of each family of densities are given in some cases. The corresponding copulas are obtained. / Al Capítol 1 de Preliminars es revisen conceptes de dependència generals (classes de Fréchet, còpules, i famílies paramètriques de distribucions). Al Capítol 2, generalitzem les operacions unió i intersecció de dues matrius de distàncies a matrius simètriques semidefinides positives qualssevol. Aquestes operacions s'han mostrat d'utilitat en la interpretació geomètrica del Related Metric Scaling (RMS), i possiblement en altres tècniques d'Anàlisi Multivariant. S'estudien llur propietats que són similars, en alguns aspectes, a les de la unió i intersecció de subespais vectorials. Al Capítol 3 es presenta una extensió al continuu d'aquestes operacions, mitjançant matrius infinites en el context dels operadors integrals acotats i nuclis numèrics. S'estableix la base per a extendre el RMS a variables contínues i, per tant, a matrius infinites. Es parteix del Teorema de Mercer el qual assegura l'existència d'una expansió ortogonal del nucli de la covariança K (s, t) = min {F (s), F (t)} - F (s) F (t), on F és la funció de distribució de cada variable marginal. Els conjunts de valors i funcions pròpies d'aquest nucli ens permeten definir un producte entre nuclis i la intersecció i unió entre nuclis simètrics semidefinits positius. Tals nuclis de covariança s'associen amb distribucions bivariants també simètriques i amb dependència quadrant positiva (PQD). El producte de dos nuclis és un cas particular de covariança entre funcions, que es pot obtenir a partir de les distribucions conjunta i marginals, com s'estudia al Capítol 4 per a funcions de variació afitada, fixada la distribució bivariant H. S'obtenen interessants relacions amb les cotes de Fréchet. Aquesta covariança entre funcions és un producte quasiescalar a l'espai de funcions de variació afitada i permet definir una mesura d'afinitat. Al Capítol 5 aquesta H-afinitat s'utilitza per definir la dimensió d'una distribució. Les components principals d'una variable (Capítol 6) s'utilitzen com a variables canòniques a l'expansió diagonal de Lancaster (Capítol 7 i últim) per a construïr distribucions bivariants amb marginals Uniformes al (0,1), Exponencial de mitjana 1, Logística estàndard, i Pareto (3,1). S'obtenen condicions per la densitat bivariant, correlacions canòniques i correlació màxima per cada família. S'obtenen les còpules corresponents.
4

Contribuciones a la representación de datos multidimensionales mediante árboles aditivos

Arcas Pons, Antoni 01 January 1986 (has links)
En esta tesis se analiza el problema de la representación asociada a un conjunto sobre el que tenemos definida una distancia verificando el axioma del cuarto punto, realizando un estudio formal de los principales aspectos relacionados con este tipo de representaciones tales como una caracterización de las mismas tratando a través de ella las relaciones entre distancias ultramétricas y aditivas. En concreto, se estudia una estructura de variedad diferenciable sobre el conjunto de las distancias aditivas con configuración inferencia en árboles y confección de algoritmos de construcción de árboles aditivos.
5

Límits de detecció en l'anàlisi multivariant

Boqué Martí, Ricard 28 April 1997 (has links)
La normativa internacional referent a la qualitat en els laboratoris d'anàlisi estableix que un mètode analític, abans de poder ser utilitzat com a mètode de rutina, ha d'estar validat. S'entén com a validació l'establiment de que els paràmetres de qualitat associats a un mètode compleixen els requeriments especificats per a una aplicació analítica determinada. Dins els paràmetres de qualitat importants es troba el límit de detecció (LDD).Els mètodes analítics que utilitzen tècniques capaces de generar dades multivariants són cada vegada més habituals i és, per tant, important el derivar-ne els paràmetres de qualitat associats. En la present Tesi Doctoral es va abordar l'estudi dels límits de detecció. En el primer capítol es presenta una evolució històrica del concepte de LDD, amb les diferents aproximacions per al seu càlcul en mètodes d'anàlisi que utilitzen el calibratge univariant. També es descriuen els diferents factors que influeixen en el càlcul del LDD. Les diferents tècniques d'anàlisi multivariant existents, junt amb els diversos models matemàtics utilitzats, ha fet que s'hagin desenvolupat diferents aproximacions al càlcul dels LDD multivariants. En el segon capítol es revisen críticament aquestes aproximacions. En el tercer capítol es presenta una aproximació per calcular el LDD a unes dades obtingudes mitjançant l'acoblament cromatografia de gasos-espectrometria de masses, que es basa en l'ús de la recta de calibratge dels scores del primer component principal (obtinguts per descomposició mitjançant anàlisi de components principals de la matriu de respostes original) respecte les concentracions dels patrons de calibratge. Aquest mètode és aplicable només en absència de substàncies interferents i quan el primer component principal explica un percentatge molt elevat de la informació continguda en les dades originals. Per tal de solucionar aquesta limitació, es va procedir a desenvolupar un estimador del LDD aplicat a models directes de calibratge multivariant, on les respostes es modelen en funció de les concentracions. En aquests models, l'etapa de calibratge pot dur-se a terme a partir de mostres consistents en els analits purs o mostres consistents en mescles dels diferents analits. Els estimadors derivats per ambdós casos, juntament amb una aplicació a dades reals, configuren el quart capítol.Els mètodes de calibratge basats en els models directes tenen l'inconvenient que cal conèixer les concentracions de totes les substàncies que produeixen senyal o, almenys, cal disposar dels espectres dels analits i els interferents purs. Aquesta condició no és la més habitual en els laboratoris, on la majoria de mostres analitzades són matrius complexes, de composició parcialment desconeguda, i en les quals sovint només interessa determinar un analit en concret. Amb aquests tipus de mostres s'ha de recórrer als models inversos, en els quals la concentració d'analit es modela en funció de la resposta obtinguda. Aquests models tenen l'avantatge que només cal conèixer la concentració de l'analit d'interès per construir el model de calibratge. Es va derivar un mètode de càlcul dels LDD per a models inversos de calibratge multivariant i que pogués servir per un ventall més ampli de mostres reals (mediambientals, alimentàries,...). En un primer treball, l'estimador del LDD es calcula a partir dels intervals de confiança del model de calibratge multivariant. En una segona aproximació, l'estimador es basa en la teoria dels tests d'hipòtesi i utilitza la incertesa de les concentracions predites. Aquests continguts, juntament amb les aplicacions a dades reals, són els que conformen el capítol cinquè.Finalment, a les conclusions es discuteixen els avantatges i les limitacions dels estimadors presentats i es donen una sèrie de pautes de com s'ha d'enfocar l'estudi de la seva millora en futurs treballs. Com a perspectiva de futur, es proposa l'aplicació dels coneixements adquirits al desenvolupament d'estimadors de càlcul del LDD en mètodes d'anàlisi que utilitzen el calibratge de segon ordre. / Limits of detection in multivariate analysisInternational norms concerning the quality of analytical laboratories establish that an analytical method, before being used as a routine method, has to be validated. Validation is defined as the process of verifying that a method is fit for purpose, that is, suitable for its intended use. Among the important performance parameters in method validation, there is the limit of detection (LOD).Analytical methods that use techniques capable of generating multivariate data are more and more frequent. It is therefore important to derive their associated performance parameters. In this Doctoral Thesis we have focused on the study of the LODs. In the first chapter, the historical evolution of the concept of LOD is presented, together with the different approaches to calculate it in analytical methods using univariate calibration. The different factors affecting the calculation of the LOD are also described.. The different existing techniques of multivariate analysis, together with the various mathematical models used, have motivated the development of different approaches for calculating multivariate LODs. In the second chapter all the approaches developed so far are critically reviewed. In chapter 3 an approach is presented to calculate the LOD to data obtained from a hyphenated technique, gas chromatography-mass spectrometry. The approach is based on the use of the calibration line of the scores of the first principal component (obtained by principal component analysis decomposition of the original response matrix) versus the concentrations of the calibration standards. This approach is only applicable if interfering substances are not present and when the first principal component explains a very high percentage of the information in the original data. To overcome this limitation, a LOD estimator was developed to be applied to multivariate calibration using the direct model, in which the responses are modelled as a function of the concentrations. In these models, the calibration step can be carried out either from standards consistent on the pure analytes or standards consistent on mixtures of the different analytes. The LOD estimators derived for both cases, together with an application to real data, constitute the contents of chapter 4.Calibration methods based on the direct model have a big disadvantage: the concentrations of all the analytes contributing to the response or, at least, the spectra of pure analytes and interfering substances, must be known. This condition is seldom met in analytical laboratories, where most of the samples analysed are complex and have composition partially unknown. Also, usually only one specific analyte wants to be determined. With this type of samples one has to resort to multivariate calibration using the inverse model, in which the concentration of the analyte is modelled as a function of the response measured. Inverse models have the advantage that only the concentration of the analyte of interest needs to be known in the calibration samples when building the calibration model. An estimator was derived to calculate the LOD for multivariate calibration using the inverse model, applicable to a wider range of real samples (environmental, foodstuffs,...). In a first work, the LOD estimator is calculated from the confidence intervals of the multivariate calibration model. In a second approach, the estimator is based on the theory of hypothesis testing and uses the uncertainty of the predicted concentrations. These approaches, together with the applications to real data, are included in chapter 5.Finally, in the conclusions, the advantages and limitations of the developed LOD estimators are discussed and a series of guidelines are given on how to improve the LOD estimators in future works. As prospect research, the development of LOD estimators is suggested for analytical methods that generate second-order data.
6

Multivariate classification of gene expression microarray data

Botella Pérez, Cristina 26 May 2010 (has links)
L'expressiódels gens obtinguts de l'anàliside microarrays s'utilitza en molts casos, per classificar les cèllules. En aquestatesi, unaversióprobabilística del mètodeDiscriminant Partial Least Squares (p-DPLS)s'utilitza per classificar les mostres de les expressions delsseus gens. p-DPLS esbasa en la regla de Bayes de la probabilitat a posteriori. Aquestsclassificadorssónforaçats a classficarsempre.Per superaraquestalimitaciós'haimplementatl'opció de rebuig.Aquestaopciópermetrebutjarlesmostresamb alt riscd'errors de classificació (és a dir, mostresambigüesi outliers).Aquestaopció de rebuigcombinacriterisbasats en els residuals x, el leverage ielsvalorspredits. A més,esdesenvolupa un mètode de selecció de variables per triarels gens mésrellevants, jaque la majoriadels gens analitzatsamb un microarraysónirrellevants per al propòsit particular de classificacióI podenconfondre el classificador. Finalment, el DPLSs'estenen a la classificació multi-classemitjançant la combinació de PLS ambl'anàlisidiscriminant lineal.
7

Análisis Estadístico Multivariante y Representación canónica de Funciones estimables

Cuadras, C. M. (Carlos María) 02 November 1977 (has links)
Cuando, realizado un análisis de la varianza, el efecto de un factor resulta significativo, para poder tener información sobre las causas de esta significación, se hace necesario conocer la forma en que se diferencian los niveles del factor. Algo parecido podría decirse respecto a las interacciones, con efecto significativo, entre dos o más factores del diseño.El problema, desde un punto de vista general, podría formularse así: dado un diseño multivariante de experimentos, y obtenido un sistema de funciones paramétricas estimables, si son significativamente distintas, ¿cómo se diferencian entre sí?Un primer camino para diferenciar los efectos de un factor (o unas interacciones, o un sistema de funciones paramétricas estimables en general), podría consistir en realizar análisis parciales de la varianza, tomando algunos niveles y prescindiendo de los demás. Esta solución, que exigiría un análisis para cada uno de las posibles combinaciones, es muy engorroso y prácticamente inviable. La utilización de contrastes ortogonales, T-contrastes ó S-contrastes en el caso más general (SCHEFFE, 1959) permite comparar combinaciones lineales de los niveles. Son muy útiles, pero tienen el inconveniente de que exigen la elección de los coeficientes, que puede ser complicado si los tamaños de las muestras de cada una de las celdas del diseño son distintos. Además, su aplicación se limita, en la práctica, a comparar los efectos de un factor principal. Las dificultades y limitaciones de las soluciones anteriores y, en cambio, la sencillez de interpretación que proporciona el análisis canónico de RAO (1952) para representar y diferenciar poblaciones, sugieren la conveniencia de generalizarlo a diseños más complicados, para poder hacer lo mismo con un sistema de funciones paramétricas estimables. En este sentido, el principal objetivo de la presente memoria es la generalización del análisis canónico de poblaciones a un sistema de funciones de funciones paramétricas estimables. Sin embargo, no abordaremos el problema sin antes revisar algunos conceptos del análisis multivariante. Para empezar, y siguiendo a DEMPSTER (1969) emplearemos una notación actualizada que aproveche los recursos del álgebra lineal moderna. Esto nos permitirá, entre otras cosas, exponer de forma algebraica la teoría y estimación de funciones paramétricas, independientemente de cualquier parametrización. Por otra parte, en esta memoria debemos analizar en detalle las relaciones entre la versión algebraica y la versión paramétrica de una función estimable, estableciendo la forma de pasar de una a otra. Además, deseamos obtener, en función de un muestreo, la expresión que optimice la estimación de una función estimable y relacionarla con la estimación que proporciona el teorema de GAUSS-MARKOV. La representación canónica de un sistema de funciones estimables deberá tener las mismas propiedades métricas que el análisis discriminante de RAO (1952).Otro objetivo importante de esta memoria será el obtener una región confidencial exacta (fijando un coeficiente de confianza) para cada función estimable. Finalmente nos proponemos estudiar la representación canónica en el caso de que existan variables concomitantes que influyan en las funciones estimables, y la conexión entre el análisis canónico generalizado y el análisis de coordenadas principales de GOWER (1966).
8

Enfoque basado en distancias de algunos métodos estadísticos multivariantes

Fortiana Gregori, Josep 03 July 1992 (has links)
1) IntroducciónUna de las aplicaciones estadísticas de la Geometría Métrica es la representación de conjuntos, consistente en determinar puntos en un espacio de métrica conocida (frecuentemente euclídea) cuyas distancias reproduzcan exacta o aproximadamente las observadas.Los Métodos de Regresión y Discriminación basados en Distancias, propuestos por Cuadras, proporcionan predicciones estadísticas aplicando propiedades geométricas de una representación euclídea. Tienen la ventaja de permitir el tratamiento de Variables continuas, cualitativas de tipo nominal y ordinal, binarias y, en general, cualquier mixtura de estas variables.Esta memoria es una contribución al estudio de estos métodos de predicción basados en distancias. En lo sucesivo emplearemos la abreviatura "DB" para referirnos él estos métodos.2) Fundamento teórico de la predicción DBSupongamos que se ha medido una variable respuesta "Y" sobre un conjunto "U" de "n" objetos, definidos por unas coordenadas "Z", y se desea predecir el valor Y(n+l) de esta variable para un nuevo objeto "omega" definido por las coordenadas "Epsilon"(n+1). Aplicando una función distancia adecuada se obtiene una matriz "delta" de distancias entre los objetos "U", y de ella las coordenadas "X" de los "U" en cierto espacio euclídeo RP. Existe una expresión para las coordenadas euclídeas X(n+l) de "omega".Si "Y" es continua (regresión DB), la predicción Y(n+l) se obtiene calculando regresión lineal sobre las variables "X" y aplicando a X(n+1) la ecuación de regresión obtenida. Si "Y" es discreta, con estados que equivalen a sub-poblaciones de "U" (discriminación DB), se asigna "omega" a aquella subpoblación para la cual es mínima la distancia euclídea entre su centro de gravedad y X(n+l). Conviene observar que en la práctica no se emplean en general estas construcciones teóricas, sino cálculos equivalentes.3) La distancia Valor AbsolutoLa elección de la función distancia es crítica para estos métodos. Para cada problema concreto se puede elegir una medida de distancia que refleje el conocimiento del modelo.Existen, sin embargo, algunas medidas de distancia "standard", adecuadas a gran número de problemas. Un caso notable es el de la distancia Valor Absoluto, cuya fórmula se aborda en esta tesis. Se ha observado que da lugar a predicciones excelentes, comparables a las de una regresión no lineal. Uno de los objetivos de este trabajo ha sido precisamente dar una justificación teórica a este buen comportamiento.En el teorema (2.2.1) se muestra que para todo conjunto "U" de puntos en R(n) existe una configuración de puntos en un espacio euclídeo R(P) que reproduce la matriz ele distancias valor absoluto entre los "U".Seguidamente se realiza el estudio teórico de la estructura de coordenadas principales asociada a esta distancia para "n" puntos sobre la recta real (al ser no bilineal la función distancia, en general "n-1" coordenadas son no triviales).El caso de puntos equidistantes se resuelve analíticamente, partiendo de una configuración euclídea inicial X(o) (convencional, con el único requerimiento de reproducir las distancias valor absoluto entre los puntos dados), y a partir de ella se obtienen las componentes principales. Las coordenadas principales resultan aplicando a la matriz X(o) la rotación resultante. Este método indirecto es más accesible que el usual para la obtención de Coordenadas Principales.En el teorema (2.4.1) se expresan los elementos de la columna "j" de la matriz de coordenadas principales como los valores de una función polinómica de grado "j" en unos puntos "z(i)" fijos.Este teorema se deduce del estudio de una familia paramétrica de matrices cuyo problema de valores y vectores propios se resuelve mediante una ecuación en diferencias. La fórmula de recurrencia se identifica como la de los polinomios de Chehychev. Empleando propiedades de estos polinomios se llega a expresiones explícitas.Estas matrices tienen notables propiedades combinatorias. En particular el teorema (3.3.1) muestra que todos sus vectores propios se obtienen aplicando a1 primero de ellos potencias de una matriz de permutación con signo.Si se dispone de un modelo paramétrico y de una distancia entre individuos estadísticos aplicable a dicho modelo, se puede emplear la versión para variables aleatorias de las funciones discriminantes. La distancia entre individuos más adecuada es la deducida de la Geometría Riemanniana de la variedad de parámetros, que tiene por tensor métrico la "Métrica de Rao".Se han calculado las funciones discriminantes DB para variables aleatorias que siguen algunas distribuciones conocidas. En particular, de la proposición (5.4.2), para variables multinomiales las funciones discriminantes DB coinciden con el tradicional estadístico Ji cuadrado, y de la (5.4.5), para variables normales con matriz de covarianzas común conocida, las funciones discriminantes DB coinciden con las clásicas (lineales) de Fisher.4)Representación de PoblacionesSe propone una distancia entre poblaciones, obtenida como diferencia de Jensen a partir de promedios sobre las distancias entre los individuos. El teorema (5.5.1) permite interpretarla como distancia euclídea entre los centros de gravedad de los puntos que representan los individuos de cada población.Se demuestra que generaliza la de Mahalanobis, pues coincide con ella en poblaciones normales, si se emplea como distancia entre individuos la deducida de la Geometría Diferencial.Calculando esta distancia para todos los pares de sub-poblaciones se obtiene una matriz, a la que se aplica Multidimensional Scaling, dando lugar a un representación euclídea que generaliza el Análisis Canónico de Poblaciones clásico, es decir, para poblaciones normales se obtienen los mismos resultados que con dicho análisis. Este método no proporciona regiones de confianza para los valores medios de las poblaciones. Se sugiere el empleo de "bootstrap" para dicho cálculo.5)Aspectos computacionalesSe discuten algunos puntos relevantes de la implementación realizada de los algoritmos DB en los programas MULTICUA ®, así como de la estimación "bootstrap" de la distribución de probabilidad de las distancias entre poblaciones, con especial énfasis en las dificultades debidas a las grandes dimensiones de los objetos tratados.6)Puntos arbitrarios sobre una rectaEn este caso se llega a una descripción cualitativa de las coordenadas principales, que permite todavía describir la primera coordenada como una dimensión lineal, la segunda como una dimensión cuadrática, la tercera como una dimensión cúbica, etc.La proposición (4.1.1) reduce el problema al estudio de los cambios de signo de las componentes de los vectores propios de una matriz "C". En (4.1.2) se muestra que "C" es oscilatoria, propiedad equivalente a la de tener todos los menores no negativos. Un teorema de Gantmacher sobre matrices oscilatorias da la descripción de los signos.7)Coordenadas principales de una variable aleatoria uniformeLa técnica empleada para obtener las coordenadas principales de un conjunto unidimensional discreto de puntos da lugar a una generalización aplicable a una distribución continua uniforme en el intervalo (0,1). La "configuración euclídea" de partida es un proceso estocástico con parámetro continuo. El cálculo de componentes principales se sustituye por el cálculo de las funciones propias de la función de covarianza del proceso, y de ellas una sucesión (numerable) de variables aleatorias centradas C(j).En (4.2.1) se muestra que estas variables son incorrelacionadas, igualmente distribuidas, y con una sucesión de varianzas sumable, de suma igual a la "variabilidad total" del proceso (traza del núcleo), y por ello el apropiado llamarlas "coordenadas principales de la variable aleatoria uniforme".Aplicando a este modelo de coordenadas principales el esquema de predicción DB se propone una medida de bondad de ajuste de una muestra a una distribución dada.8)Análisis discriminante DBLas funciones discriminantes DB descritas más arriba pueden obtenerse directamente de los elementos de la matriz de distancias, sin precisar ninguna diagonalización, según resulta de (5.2.1) y (5.2.2). En consecuencia, el cálculo es rápido y efectivo. / Distance Based (DB) Regression and Discrimination methods, proposed by Cuadras, give statistical predictions by exploiting geometrical properties of a Euclidean representation obtained from distances between observations. They are adequate to deal with mixed variables.Choice of a suitable distance function is a critical step. Some "standard" functions, however, fit a wide range of problems, and particularly the Absolute Value distance. This is explained showing that for "n" equidistant points on the real line, elements in the "j"-th row of the principal coordinate matrix are values of a "j"-th degree polynomial function. For arbitrary one-dimensional sets of points a qualitatively analogous result holds.Using results from the theory of random processes, a sequence of random variables is obtained from a continuous uniform distribution on the (0, 1) interval. Their properties show that they deserve the name of "Principal Coordinates". The DB prediction scheme in this case provides a goodness-of-fit measuring technique.DB discriminant functions are evaluated from distances between observations. They have a simple geometrical interpretation in the Euclidean representation of data. For parametric models, distances can be derived from the Differential Geometry of the parametric manifold. Several DB discriminant functions are computed using this approach. In particular, for multinomial variables they coincide with the classic Pearson's Chi Square statistic, and for Normal variables, Fisher's linear discriminant function is obtained.A distance between populations generalizing Mahalanobis' is obtained as a Jensen difference from distances between observations. It can be interpreted in terms of the Euclidean representation. Using Multidimensional Scaling, it originates a Euclidean representation of populations which generalizes the classical Canonical Analysis.Several issues concerning implementation of DB algorithms are discussed, specially difficulties related to the huge dimension of objects involved.
9

Contribuciones al estudio del problema de la clasificación mediante grafos piramidales

Capdevila i Marquès, Carles 30 September 1993 (has links)
En esta memoria se ha desarrollado una metodología para abordar problemas relativos a la clasificación y de un conjunto de objetos o individuos de una determinada población, mediante unas estructuras llamadas "Pirámides", introducidas por E. Diday en 1984, y que pretenden ser una generalización del concepto de Jerarquía, en el sentido de permitir la existencia no de grupos disjuntos o encajados, sino también de grupos solapados, y por tanto permitir clasificaciones en las que los grupos en que queda dividida la población a un determinado nivel, no tengan que ser forzosamente particiones de la misma, como pasa con las clasificaciones inducidas por las Jerarquías, sino que puedan ser recubrimientos. Este tipo de clasificaciones permite pues que un determinado individuo pueda pertenecer a dos grupos de una misma clasificación y por tanto, en la realidad, pueda ser caracterizado por las propiedades de los distintos grupos a los que pertenezca y no por las de un único grupo como en el caso jerárquico, con lo cual este nuevo modelo de clasificación y representación de datos se adaptará a la realidad que aquel. En primer lugar se ha situado este nuevo modelo de representación en el marco del Análisis Multivariante y se han presentado algunos conceptos y resultados ya conocidos, pero imprescindibles para el desarrollo del tema: Caracterización de las matrices asociadas a las disimilaridades piramidales, relación con los preordenes compatibles, etc. Se recuerda que toda disimilaridad ultramétrica es también piramidal y que, en consecuencia, toda Jerarquía Total Indexada es una Pirámide Indexada, con lo cual podemos considerar a los modelos piramidales como una generalización de los modelos jerárquicos. Se ha desarrollado también una nueva formalización de las bases sobre las que se amparan los modelos de representación y clasificación. En este sentido se ha precisado la axiomática y se han dado nuevos teoremas de Existencia y Unicidad de la pirámide inducida por una disimilaridad piramidal y recíprocamente, de la disimilaridad piramidal inducida por una pirámide.Una vez establecidos los resultados teóricos mencionados, se ha profundizado en otros aspectos teóricos conducentes a hacer que los métodos piramidales puedan llegar a ser útiles en la realización de trabajos prácticos como lo han sido los modelos jerárquicos clásicos.En este sentido se ha diseñado un algoritmo de clasificación piramidal, inspirado en el descrito por el propio Diday, convenientemente modificado, con el fin de obtener una pirámide indexada lo más sencilla posible desde el punto de de la representación visual.Se han caracterizado los grupos sobrantes en una pirámide indexada y se ha demostrado que son los únicos que pueden ser eliminados de una pirámide sin que ello suponga pérdida de información sobre la clasificación. Se ha definido un índice de agregación adecuado a los modelos de representación piramidal y se ha demostrado que el algoritmo de clasificación piramidal descrito, utilizando un tal índice de agregación, produce siempre una pirámide indexada en sentido estricto, sin inversiones, sin cruzamientos y sin grupos sobrantes.Finalmente se ha efectuado una programación informática del algoritmo en Turbo Prolog. El programa, llamado PIR. PRO, a partir de una matriz de disimilaridad dada sobre los individuos de la población, efectúa una clasificación piramidal de la misma por los métodos del Mínimo, del Máximo y del UPGMA, obteniéndose como resultado una de las pirámides indexadas correspondientes, la disimilaridad piramidal asociada, el grafo piramidal y como coeficientes de adecuación entre la disimilaridad inicial y la piramidal obtenida, el coeficiente de correlación cofenética (rho) y el coeficiente gamma de Goodman-Kurskal.Debido a las restricciones impuestas en el algoritmo, se establece que el algoritmo piramidal del mínimo produce siempre la jerarquía del mínimo, que como es sabido, es única.Un sencillo experimento de simulación nos confirma la mejora que suponen las representaciones piramidales frente a las ultramétricas, en el sentido de ser próxima la realidad.En problemas reales de clasificación, una vez obtenida la pirámide es necesario evaluar el nivel de adecuación de la estructura piramidal obtenida, a la estructura inicial de los datos. Para ello disponemos de numerosos coeficientes de adecuación, en nuestro caso hemos considerado el coeficiente de correlación cofenética y el de Goodman-Kurskal. A pesar de disponer de estos parámetros, en un caso concreto, es difícil valorar hasta qué punto sus valores realmente significativos. Así pues, seria conveniente encontrar algún criterio que nos permitiese evaluar el nivel de significación de dichos parámetros. En este sentido hemos intentado una validación estadística de los métodos piramidales del mínimo y del máximo así como la obtención de algún criterio evaluar la potencia-eficiencia de los mismos.Debido al desconocimiento de las distribuciones de los estadísticos utilizados (gamma y rho), se han tratado cuestiones inferenciales un punto de vista empírico. Mediante algunas pruebas de simulación por métodos de Monte Carlo se ha tabulado, a partir de la distribución muestral del estadístico gamma, un test de significación de la bondad de ajuste de una representación piramidal por los métodos del mínimo y del máximo. Asimismo se ha establecido que, en general, el método piramidal del máximo recupera mejor una posible estructura piramidal subyacente en la población a clasificar que el método del mínimo, a menos que pueda preverse que la estructura de la población inicial se asemeje a una jerarquía encadenada. / In this memory it is developed a methodology to tackle problems about the classifications and representations population's members through structures called "Pyramids". Pyramidal trees, introduced by E. Diday, are a logical generalization of ultrametric trees. They are less restrictive structures where recovering replaces the concept of partition, obtaining a representation which bears information is closer to the dissimilarities. A new formalization of mathematics bases of the pyramidal models is developed. In this sense, the axiomatic has fixed and new theorems of existence and uniqueness of the pyramid induced from pyramidal dissimilarity, they are considered, and mutually. An algorithm of pyramidal classification is designed in order to obtain an easiest pyramid. The spare groups in an indexed pyramid are characterized. A suitable criterion to the pyramidal models is definited to calculate the distance between groups. From mentioned algorithm and using this criterion indexed pyramid in strict sense, without reversals, crossings and spare groups. Moreover, a computer programming of the algorithm is developed in Turbo Prolog.In applied problems is necessary to measure the fitting between the pyramidal tree from some algorithm and the initial structure. Using some simulation techniques by means of Monte Carlo methods, sample distribution of is obtained, to tabulate a goodness-of-fit test of the pyramidal representation using the minimum method and the maximum method. Finally, we have studied the efficiency of the maximum method and the minimum method through other simulation tests.
10

Evolution Of Multivariant Microstuctures With Anisotropic Misfit

Bhattacharyya, Saswata 11 1900 (has links)
Many technologically important alloys such as Ni base superalloys and Ti-Al base alloys benefit from the precipitation of an ordered β phase from a disordered α matrix. When the crystallographic symmetry of the β phase is a subgroup of that of the disordered α phase, the microstructure may contain multiple orientational variants of the β phase, each with its own (anisotropic, crystallographically equivalent) misfit (lattice parameter mismatch) with the matrix phase. Examples include orthorhombic precipitates in a hexagonal matrix in Ti-Al-Nb alloys, and tetragonal precipitates in a cubic matrix in ZrO2-Y2O3. We have studied two-phase microstructures containing multiple variants of the precipitate phase. In particular, we have used phase field simulations to study the effect of elastic stresses in a two dimensional system containing a disordered matrix and three different orientational variants of the precipitate phase, with a view to elucidate the effect of different levels of anisotropy in misfit. We consider a two dimensional, elastically homogeneous and isotropic model system in which the matrix (α) and precipitate (β) phases have hexagonal and rectangular symmetries, respectively, giving rise to three orientational variants of the β phase. Therefore, our phase field model has composition (c) and three order parameters (η1, η2, η3) as the field variables.Due to the difference in crystallographic symmetry, the precipitate-matrix misfit strain tensor, ε*, can be anisotropic. ε*maybe represented in its principal form as ε *= (ε xx 0 ) 0 εyy where ε xx and ε yy are the principal components of the misfit tensor. We define t= εyy/εxx as the parameter representing anisotropy in the misfit. In this thesis, we report the results of our systematic study of microstructural evolution in systems with different values of t, representing different levels of anisotropy in misfit: •Case A: t=1 (dilatational or isotropic misfit) • Case B: 0 <t<1 (principal misfit components are unequal but have the same sign) • Case C: t=0 (the principal misfit along the y direction is zero) • Case D: -1 <t<0 (principal misfit components have opposite signs and unequal magnitudes) • Case E: t= -1 (principal misfit components are equal, but with opposite signs; pure shear) In Cases D and E, there is an invariant line along which the normal misfit is zero. In Case D, this invariant line is at ±54.72◦, and in Case E, it is at ±45◦, with respect to the x-axis. Our simulations of microstructural evolution in this system are based on numerical integration of the Cahn-Hilliard and Cahn-Allen equations which govern the evolution of composition and order parameter fields, respectively. In each case, we have studied two different situations: isolated particle (single variant) and many interacting particles (multivariant). Dynamical growth shape of an isolated precipitate In systems with an isotropic misfit (Case A), the precipitate shape remains circular at all sizes. In Cases B and C, the precipitate shape is elongated along the y-axis, which is also the direction in which the magnitude of the misfit strain is lower. In all these cases, the symmetry of the particle shape remains unaltered at all sizes. In contrast, in Cases D and E, the particle shape exhibits a symmetry-breaking transition. In Case D, the precipitate elongates initially along the y direction (i.e. the direction of lower absolute misfit), before undergoing a transition in which the mirror symmetry normal to x and yaxes is lost. In Case E, the particle has an initial square-like shape (with its sides normal to the 11directions) before losing its four-fold rotation axis to become rectangle-like with its long axis along one of the the 11directions. The critical precipitate size at which the symmetry-breaking shape transition occurs is obtained using bifurcation diagrams. In both Cases D and E, the critical size for the dynamical growth shapes is larger than those for equilibrium shapes[1].This critical size is larger when the matrix supersaturation is higher or shear modulus is lower. Microstructural Evolution In all the five cases, the elastic stresses have a common effect: they lead to microstructures in which the precipitate volume fraction is lower than that in a system with no misfit. This observation is consistent with the results from the thermodynamics of stressed solids that show that a precipitate-matrix misfit increases the interfacial composition in both the matrix and the precipitate phase. In systems with isotropic misfit (Case A), the microstructure consists of isolated circular domains of the precipitate phase that retain their circular shape during growth and subsequent coarsening. In Cases B and C with anisotropic misfit with t≥0, the three orientational variants of the precipitate phase are elongated along the directions of lower misfit (y-axis and ±120◦to y-axis). At a given size, particles in Case C (in which one of the principal misfits is zero) are more elongated than those in Case B. Systems with a higher shear modulus enhance the effect of misfit stresses, and therefore, lead to thinner and longer precipitates. When the precipitate volume fraction is increased, these elongated precipitates interact with (and impinge against) one another to a greater extent, and acquire a more jagged appearance. For Cases D and E, each orientation domain is associated with an invariant line along which the normal misfit is zero. Thus, in Case D, early stage microstructures show particles elongated along directions of lower absolute misfit (y-axis and ±120°to y-axis). At the later stages, the domains of the precipitate phase tend to orient along the invariant lines; this leads some of the particles to acquire a ‘Z’ shape before they completely re-orient themselves along the invariant line. In Case E, each variant grows as a thin plate elongating along the invariant line. The growth and impingement of these thin plates leads to a microstructure exhibiting complex multi-domain patterns such as stars, wedges, triangles, and checkerboard. These patterns have been compared (and are in good agreement) with experimental observations in Ti-Al-Nb alloys containing the precipitate (O) and matrix (α2)phases[2]. Since in Case E the sum of misfit strains of the three variants is zero, elastic energy considerations point to the possibility of compact, self-accommodating clusters of the three variants, sharing antiphase boundaries (APBs). Thus, if the APB energy is sufficiently low, the microstructure may consist of such compact clusters. Our simulations with such low APB energy do show triangle shaped clusters with six separate particles (two of each variant)in a self-accommodating pattern. (Refer PDF file)

Page generated in 0.083 seconds