261 |
Estructura computacional i aplicacions de la semblança molecular quànticaAmat Barnés, Lluís 02 June 2003 (has links)
La tesis tracta diferents aspectes relacionats amb el càlcul de la semblança quàntica, així com la seva aplicació en la racionalització i predicció de l'activitat de fàrmacs. Es poden destacar dos progressos importants en el desenvolupament de noves metodologies que faciliten el càlcul de les mesures de semblança quàntica. En primer lloc, la descripció de les molècules mitjançant les funciones densitat aproximades PASA (Promolecular Atomic Shell Approximation) ha permès descriure amb suficient precisió la densitat electrònica dels sistemes moleculars analitzats, reduint substancialment el temps de càlcul de les mesures de semblança. En segon lloc, el desenvolupament de tècniques de superposició molecular específiques de les mesures de semblança quàntica ha permès resoldre el problema de l'alineament en l'espai dels compostos comparats. El perfeccionament d'aquests nous procediments i algoritmes matemàtics associats a les mesures de semblança molecular quàntica, ha estat essencial per poder progressar en diferents disciplines de la química computacional, sobretot les relacionades amb les anàlisis quantitatives entre les estructures moleculars i les seves activitats biològiques, conegudes amb les sigles angleses QSAR (Quantitative Structure-Activity Relationships). Precisament en l'àrea de les relacions estructura-activitat s'han presentat dues aproximacions fonamentades en la semblança molecular quàntica que s'originen a partir de dues representacions diferents de les molècules. La primera descripció considera la densitat electrònica global de les molècules i és important, entre altres, la disposició dels objectes comparats en l'espai i la seva conformació tridimensional. El resultat és una matriu de semblança amb les mesures de semblança de tots els parells de compostos que formen el conjunt estudiat. La segona descripció es fonamenta en la partició de la densitat global de les molècules en fragments. S'utilitzen mesures d'autosemblança per analitzar els requeriments bàsics d'una determinada activitat des del punt de vista de la semblança quàntica. El procés permet la detecció de les regions moleculars que són responsables d'una alta resposta biològica. Això permet obtenir un patró amb les regions actives que és d'evident interès per als propòsits del disseny de fàrmacs. En definitiva, s'ha comprovat que mitjançant la simulació i manipulació informàtica de les molècules en tres dimensions es pot obtenir una informació essencial en l'estudi de la interacció entre els fàrmacs i els seus receptors macromoleculars. / There is probably no other concept that contributed to the development of chemistry so remarkably as the ill-defined, qualitative concept of similarity. From the intuitively understood meaning of similarity arises also one of the most powerful chemical principles - the principle of analogy - which in early days of chemistry served as the basis for the classification and systematization of molecules and reactions. The same principle underlies also the widely used idea that similar structures have similar properties which, in turn, is the basis for the existence of various empirical relations between the structure and activity known as QSAR relationships. Because of the fundamental role which similarity plays in so many different situations it is not surprising that its systematic investigation has become the focus of intense scientific interest. Main attention in this respect was devoted to the design of new quantitative measures of molecular similarity. The philosophy underlying the development of quantitative, similarity measures based on quantum theory, arises from the idea that properties of molecules, whether chemical, physical or biological are predetermined by the molecular structure. The rationalization of empirical structure-activity relationships is to considerable extent connected with the recent efforts in the design of new molecular descriptors based on quantum theory. The simplest of such quantities is the electron density function and most of the theoretical molecular descriptors are derived just from this quantity. Among them, a privileged place belongs to the so-called Molecular Quantum Similarity Measures (MQSM). These measures are generally based on the pairwise comparison of electron density functions of the corresponding molecules.This contribution pretends to present an up-to-date revision of Quantum Similarity concepts and their application to QSAR. The general form of MQSM is introduced, and the concrete definitions for practical implementations are specified. Two important topics related to the application of MQSM are discussed: first the Promolecular Atomic Shell Approximation (PASA), a method for fitting first-order molecular density functions for a fast and efficient calculation of the MQSM. Afterwards, a possible solution to the problem of molecular alignment, a determinant procedure in all 3D QSAR methodologies. Finally, the application of Quantum Similarity to QSAR is discussed in detail. Two kind of descriptors derived from molecular quantum similarity theory were used to construct QSAR models: molecular quantum similarity matrices and fragment quantum self-similarity measures. The practical implementation of those ideas has led to the publication of several papers, and finally, to the present work.
|
262 |
Computer-aided design of novel antithrombotic agentsKhristova, Tetiana 15 November 2013 (has links) (PDF)
Thrombosis is the most important pathological process underlying many cardiovascular diseases, which are responsible for high mortality worldwide. In this theses the computer-aided design of new anti-thrombotic agents able to inhibit two types of receptors located on the surface of the platelets has been applied. The first one - αIIbβ3 - is responsible for the interaction of activated platelets with fibrinogen to form clots, whereas the second one - thromboxane A2 - is responsible for platelet activation by one of agonists excreted by activated platelets. To achieve this, different types of models have been developed using experimentally available information and structure of protein-ligand complexes. This concerns: QSAR models, structure-based and ligand-based 3D pharmacophore models, 2D pharmacophore models, shape-based and molecular field-based models. The ensemble of the developed models were used in virtual screening. This study resulted in suggestion of new potential antagonists of αIIbβ3 and thromboxane A2 receptors. Suggested antagonists of αIIbβ3 able to bind either open or closed form of the receptor have been synthesized and tested experimentally. Experiments show that they display high activity; moreover some of theoretically designed compounds are more efficient than Tirofiban - the commercialized drug molecule. The recommended antagonists of thromboxane A2 receptor have been already synthesized but biological tests have not been completed yet.
|
263 |
Développement de nouvelles méthodes de criblage in silico en chémogénomiqueMeslamani, Jamel Eddine 13 September 2012 (has links) (PDF)
La chémoinformatique et la bioinformatique sont des disciplines devenues indispensables à la découverte de médicaments. De nos jours, les industries pharmaceutiques consacrent près de 10% de leur budget de recherche et développement, à la recherche de médicaments assisté par ordinateur (Kapetanovic 2008). Cette émergence peut s'expliquer à la fois par le développement des architectures de calculs mais aussi par le faible coup qu'engendrent des analyses in silico par rapport à des tests in-vitro.Les essais biologiques qui ont été menés depuis des décennies afin d'identifier des médicaments potentiels, commencent à former une source très importante de données et plusieurs bases de données commencent à les répertorier. La disponibilité de ce type de données a favorisé le développement d'un nouvel axe de recherche appelé la "chémogénomique" et qui s'intéresse à l'étude et à l'identification des associations possibles entre plusieurs molécules et plusieurs cibles. Ainsi, la chémogénomique permet de déterminer le profil biologique d'une molécule et nous renseigne sur sa capacité à devenir une touche intéressante mais aussi à identifier ses possibles effets indésirables. Des méthodes de chémoinformatique permettent d'utiliser ces sources de données à des fins d'apprentissage et établir des modèles prédictifs qui permettront par la suite de faire des prédictions pour connaitre l'activité d'une molécule.Cette thèse a porté sur le développement et l'utilisation de méthodes de prédictions d'association protéine-ligand. La prédiction d'une association est importante en vue d'un criblage virtuel et peut s'effectuer à l'aide de plusieurs méthodes. Au sein du laboratoire, on s'intéresse plus particulièrement au profilage de bases de données de molécules (chimiothèques) contre une série de cibles afin d'établir leur profil biologique. J'ai donc essayé au cours de ma thèse de mettre au point des modèles prédictifs d'association protéine-ligand pour un grand nombre de cibles, valider des méthodes de criblage virtuel récentes à des fins de profilage mais aussi établir un protocole de profilage automatisé, qui décide du choix de la méthode de criblage la plus adaptée en s'appuyant sur les propriétés physico-chimiques du ligand à profiler et de l'éventuelle cible.
|
264 |
In silico tools in risk assessment : of industrial chemicals in general and non-dioxin-like PCBs in particularStenberg, Mia January 2012 (has links)
Industrial chemicals in European Union produced or imported in volumes above 1 tonne annually, necessitate a registration within REACH. A common problem, concerning these chemicals, is deficient information and lack of data for assessing the hazards posed to human health and the environment. Animal studies for the type of toxicological information needed are both expensive and time consuming, and to that an ethical aspect is added. Alternative methods to animal testing are thereby requested. REACH have called for an increased use of in silico tools for non-testing data as structure-activity relationships (SARs), quantitative structure-activity relationships (QSARs), and read-across. The main objective of the studies underlying this thesis is related to explore and refine the use of in silico tools in a risk assessment context of industrial chemicals. In particular, try to relate properties of the molecular structure to the toxic effect of the chemical substance, by using principles and methods of computational chemistry. The initial study was a survey of all industrial chemicals; the Industrial chemical map was created. A part of this map was identified including chemicals of potential concern. Secondly, the environmental pollutants, polychlorinated biphenyls (PCBs) were examined and in particular the non-dioxin-like PCBs (NDL-PCBs). A set of 20 NDL-PCBs was selected to represent the 178 PCB congeners with three to seven chlorine substituents. The selection procedure was a combined process including statistical molecular design for a representative selection and expert judgements to be able to include congeners of specific interest. The 20 selected congeners were tested in vitro in as much as 17 different assays. The data from the screening process was turned into interpretable toxicity profiles with multivariate methods, used for investigation of potential classes of NDL-PCBs. It was shown that NDL-PCBs cannot be treated as one group of substances with similar mechanisms of action. Two groups of congeners were identified. A group including in general lower chlorinated congeners with a higher degree of ortho substitution showed a higher potency in more assays (including all neurotoxic assays). A second group included abundant congeners with a similar toxic profile that might contribute to a common toxic burden. To investigate the structure-activity pattern of PCBs effect on DAT in rat striatal synaptosomes, ten additional congeners were selected and tested in vitro. NDL-PCBs were shown to be potent inhibitors of DAT binding. The congeners with highest DAT inhibiting potency were tetra- and penta-chlorinated with 2-3 chlorine atoms in ortho-position. The model was not able to distinguish the congeners with activities in the lower μM range, which could be explained by a relatively unspecific response for the lower ortho chlorinated PCBs. / Den europeiska kemikalielagstiftningen REACH har fastställt att kemikalier som produceras eller importeras i en mängd över 1 ton per år, måste registreras och riskbedömmas. En uppskattad siffra är att detta gäller för 30 000 kemikalier. Problemet är dock att data och information ofta är otillräcklig för en riskbedömning. Till stor del har djurförsök använts för effektdata, men djurförsök är både kostsamt och tidskrävande, dessutom kommer den etiska aspekten in. REACH har därför efterfrågat en undersökning av möjligheten att använda in silico verktyg för att bidra med efterfrågad data och information. In silico har en ungefärlig betydelse av i datorn, och innebär beräkningsmodeller och metoder som används för att få information om kemikaliers egenskaper och toxicitet. Avhandlingens syfte är att utforska möjligheten och förfina användningen av in silico verktyg för att skapa information för riskbedömning av industrikemikalier. Avhandlingen beskriver kvantitativa modeller framtagna med kemometriska metoder för att prediktera, dvs förutsäga specifika kemikaliers toxiska effekt. I den första studien (I) undersöktes 56 072 organiska industrikemikalier. Med multivariata metoder skapades en karta över industrikemikalierna som beskrev dess kemiska och fysikaliska egenskaper. Kartan användes för jämförelser med kända och potentiella miljöfarliga kemikalier. De mest kända miljöföroreningarna visade sig ha liknande principal egenskaper och grupperade i kartan. Genom att specialstudera den delen av kartan skulle man kunna identifiera fler potentiellt farliga kemiska substanser. I studie två till fyra (II-IV) specialstuderades miljögiftet PCB. Tjugo PCBs valdes ut så att de strukturellt och fysiokemiskt representerade de 178 PCB kongenerna med tre till sju klorsubstituenter. Den toxikologiska effekten hos dessa 20 PCBs undersöktes i 17 olika in vitro assays. De toxikologiska profilerna för de 20 testade kongenerna fastställdes, dvs vilka som har liknande skadliga effekter och vilka som skiljer sig åt. De toxicologiska profilerna användes för klassificering av PCBs. Kvantitativa modeller utvecklades för prediktioner, dvs att förutbestämma effekter hos ännu icke testade PCBs, och för att få ytterligare kunskap om strukturella egenskaper som ger icke önskvärda effekter i människa och natur. Information som kan användas vid en framtida riskbedömning av icke-dioxinlika PCBs. Den sista studien (IV) är en struktur-aktivitets studie som undersöker de icke-dioxinlika PCBernas hämmande effekt av signalsubstansen dopamin i hjärnan.
|
265 |
In silico methods to prioritize chemicals with high exposure potentialReppas Chrysovitsinos, Efstathios January 2017 (has links)
Chemicals offer a wide range of desired functions and are used in a variety of consumer goods and industrial sectors. The number of individual synthetic organic chemicals produced and the total global chemical production volume are increasing. The majority of these anthropogenic chemicals are not monitored in environmental matrices nor in the indoor environment even though some are associated with undesirable consequences and the range of possible chemical impacts is still far from being fully understood. Chemicals that remain in the environment for a long time and/or distribute over a large area have high exposure potential, and will present particularly acute challenges if a currently unknown undesirable effect is discovered. This thesis describes the development of a set of in silico methods to identify and prioritize chemicals with high exposure potential that are currently not subject to national or international restrictions. In brief, we i) compiled databases of contaminants of potential concern, ii) established models to predict key properties to fill data gaps in the absence of experimental data, and iii) developed and applied methods to screen chemicals to identify those that should be assigned high priority for future study. Paper I delivers screening-level models to predict partition ratios of organic chemicals between polymeric materials commonly found indoors, and both air and water. These models can be used in high-throughput exposure assessment studies, passive sampling experiments, and models of emissions, fate and transport of chemicals. Paper II presents a scoring method to prioritize 464 organic chemicals of emerging Arctic concern for their potential to fit a set of four exposure-based hazard profiles. These four profiles represent persistent organic pollutants (POPs) regulated under the Stockholm Convention, very persistent and very bioaccumulative substances (vPvBs) regulated under REACH and for two novel and unregulated profiles derived from the planetary boundary threats framework; airborne persistent contaminants (APCs) and waterborne persistent contaminants (WPCs). APCs and WPCs are chemicals that are mobile in air and water, respectively, and that contaminate the environment in a poorly reversible manner due to their persistence. The prioritization method is based on a reference set of 148 chemicals that is used to contextualize the scoring results. Paper III describes the prioritization of 8,648 chemicals that were reportedly produced in five OECD countries. Paper III elucidates the relationship between the elemental composition of these chemicals and the exposure-based hazard scores, and presents a strategy to disentangle overlaps among the four exposure hazard profiles by categorizing chemicals according to the spatial coverage of profiles they best fit. Paper IV focuses on refining the prioritization method described in Papers II and III using a set of 5,600 hypothetical chemicals. The refined method is used to prioritize the chemicals from Papers II and III, and an additional 4,567 chemicals from the REACH database. The in silico methods developed in this thesis can be applied to conduct screening-level exposure assessments using only chemical structures as a starting point. Substances prioritized as having high potential to be POPs, vPvB, APC, or WPC should be considered for more detailed study to unequivocally determine their identity and physicochemical properties. / <p>At the time of the doctoral defense, the following papers were unpublished and had a status as follows: Paper 3: Manuscript. Paper 4: Manuscript.</p>
|
266 |
Data Mining/Machine Learning Techniques for Drug Discovery: Computational and Experimental Pipeline DevelopmentChen, Jonathan Jun Feng 23 May 2018 (has links)
No description available.
|
267 |
Rational Optimization of Small Molecules for Alzheimer’s Disease Premortem DiagnosisCisek, Katryna 27 June 2012 (has links)
No description available.
|
268 |
Intensificación del proceso de absorción de dióxido de azufre mediante contacto no dispersivo y líquidos iónicos.Luis Alconero, Patricia 06 July 2009 (has links)
La intensificación de procesos consiste en el desarrollo de equipos y técnicas innovadoras que ofrecen mejoras sustanciales en el proceso, principalmente mediante la disminución del volumen del equipo, consumo de energía o generación de residuos, dando lugar a tecnologías más baratas, seguras y sostenibles. Esta tesis enfatiza la intensificación de procesos como estrategia en la recuperación de dióxido de azufre mediante el empleo de la tecnología de membranas y de líquidos iónicos como absorbente con objeto de eliminar las pérdidas de disolvente.La intensificación del proceso se lleva a cabo en dos etapas:i) Sustitución del equipo convencional (e.g. scrubbers) por un sistema de membranas para eliminar el arrastre de gotas y,ii) Sustitución del disolvente de absorción (N,N-dimetilanilina) por líquidos iónicos para eliminar pérdidas de disolvente por su volatilización en la corriente de gas debido a su presión de vapor despreciable. La selección de un líquido iónico adecuado se basa en su afinidad hacia dióxido de azufre, baja viscosidad, bajo coste y baja ecotoxicidad.En resumen, esta tesis es el primer trabajo que combina el empleo de un contactor de membranas de fibra hueca con líquidos iónicos, contribuyendo al desarrollo de procedimientos innovadores para intensificar el proceso de absorción de dióxido de azufre. / Process intensification consists of the development of innovative devices and techniques that offer significant improvements in chemical manufacturing and processing, decreasing substantially equipment volume, energy consumption, or wastes, and ultimately leading to cheaper, safer and sustainable technologies. This thesis emphasizes the process intensification as the strategy to the recovery of sulfur dioxide, according to the material efficiency and environmental protection, by means of technology based on membranes and ionic liquids as absorption solvents in order to avoid solvent losses.Process intensification is performed in two steps:i) Substitution of conventional equipment (e.g. scrubbers) for a membrane device to avoid drops dragging and,ii) Substitution of the absorption solvent (N,N-dimethylaniline) for ionic liquids to avoid solvent losses due to volatilization of solvent into the gas stream because of their negligible vapor pressure. Selection of a suitable ionic liquid is based on its affinity towards sulfur dioxide, low viscosity, low cost and low ecotoxicity.Thus, this thesis is the first work that combines a hollow fibre membrane contactor and ionic liquids, contributing to the development of innovative procedures to intensify the sulfur dioxide absorption process.
|
269 |
Funcions densitat i semblança molecular quàntica: nous desenvolupaments i aplicacionsGironés Torrent, Xavier 10 May 2002 (has links)
La present tesi, tot i que emmarcada dins de la teoria de les Mesures Semblança Molecular Quántica (MQSM), es deriva en tres àmbits clarament definits:- La creació de Contorns Moleculars de IsoDensitat Electrònica (MIDCOs, de l'anglès Molecular IsoDensity COntours) a partir de densitats electròniques ajustades.- El desenvolupament d'un mètode de sobreposició molecular, alternatiu a la regla de la màxima semblança.- Relacions Quantitatives Estructura-Activitat (QSAR, de l'anglès Quantitative Structure-Activity Relationships).L'objectiu en el camp dels MIDCOs és l'aplicació de funcions densitat ajustades, ideades inicialment per a abaratir els càlculs de MQSM, per a l'obtenció de MIDCOs. Així, es realitza un estudi gràfic comparatiu entre diferents funcions densitat ajustades a diferents bases amb densitats obtingudes de càlculs duts a terme a nivells ab initio. D'aquesta manera, l'analogia visual entre les funcions ajustades i les ab initio obtinguda en el ventall de representacions de densitat obtingudes, i juntament amb els valors de les mesures de semblança obtinguts prèviament, totalment comparables, fonamenta l'ús d'aquestes funcions ajustades. Més enllà del propòsit inicial, es van realitzar dos estudis complementaris a la simple representació de densitats, i són l'anàlisi de curvatura i l'extensió a macromolècules. La primera observació correspon a comprovar no només la semblança dels MIDCOs, sinó la coherència del seu comportament a nivell de curvatura, podent-se així observar punts d'inflexió en la representació de densitats i veure gràficament aquelles zones on la densitat és còncava o convexa. Aquest primer estudi revela que tant les densitats ajustades com les calculades a nivell ab initio es comporten de manera totalment anàloga. En la segona part d'aquest treball es va poder estendre el mètode a molècules més grans, de fins uns 2500 àtoms.Finalment, s'aplica part de la filosofia del MEDLA. Sabent que la densitat electrònica decau ràpidament al allunyar-se dels nuclis, el càlcul d'aquesta pot ser obviat a distàncies grans d'aquests. D'aquesta manera es va proposar particionar l'espai, i calcular tan sols les funcions ajustades de cada àtom tan sols en una regió petita, envoltant l'àtom en qüestió. Duent a terme aquest procés, es disminueix el temps de càlcul i el procés esdevé lineal amb nombre d'àtoms presents en la molècula tractada.En el tema dedicat a la sobreposició molecular es tracta la creació d'un algorisme, així com la seva implementació en forma de programa, batejat Topo-Geometrical Superposition Algorithm (TGSA), d'un mètode que proporcionés aquells alineaments que coincideixen amb la intuïció química. El resultat és un programa informàtic, codificat en Fortran 90, el qual alinea les molècules per parelles considerant tan sols nombres i distàncies atòmiques. La total absència de paràmetres teòrics permet desenvolupar un mètode de sobreposició molecular general, que proporcioni una sobreposició intuïtiva, i també de forma rellevant, de manera ràpida i amb poca intervenció de l'usuari. L'ús màxim del TGSA s'ha dedicat a calcular semblances per al seu ús posterior en QSAR, les quals majoritàriament no corresponen al valor que s'obtindria d'emprar la regla de la màxima semblança, sobretot si hi ha àtoms pesats en joc.Finalment, en l'últim tema, dedicat a la Semblança Quàntica en el marc del QSAR, es tracten tres aspectes diferents:- Ús de matrius de semblança. Aquí intervé l'anomenada matriu de semblança, calculada a partir de les semblances per parelles d'entre un conjunt de molècules. Aquesta matriu és emprada posteriorment, degudament tractada, com a font de descriptors moleculars per a estudis QSAR. Dins d'aquest àmbit s'han fet diversos estudis de correlació d'interès farmacològic, toxicològic, així com de diverses propietats físiques.- Aplicació de l'energia d'interacció electró-electró, assimilat com a una forma d'autosemblança. Aquesta modesta contribució consisteix breument en prendre el valor d'aquesta magnitud, i per analogia amb la notació de l'autosemblança molecular quàntica, assimilar-la com a cas particular de d'aquesta mesura. Aquesta energia d'interacció s'obté fàcilment a partir de programari mecanoquàntic, i esdevé ideal per a fer un primer estudi preliminar de correlació, on s'utilitza aquesta magnitud com a únic descriptor. - Càlcul d'autosemblances, on la densitat ha estat modificada per a augmentar el paper d'un substituent. Treballs previs amb densitats de fragments, tot i donar molt bons resultats, manquen de cert rigor conceptual en aïllar un fragment, suposadament responsable de l'activitat molecular, de la totalitat de l'estructura molecular, tot i que les densitats associades a aquest fragment ja difereixen degut a pertànyer a esquelets amb diferents substitucions. Un procediment per a omplir aquest buit que deixa la simple separació del fragment, considerant així la totalitat de la molècula (calcular-ne l'autosemblança), però evitant al mateix temps valors d'autosemblança no desitjats provocats per àtoms pesats, és l'ús de densitats de Forats de fermi, els quals es troben definits al voltant del fragment d'interès. Aquest procediment modifica la densitat de manera que es troba majoritàriament concentrada a la regió d'interès, però alhora permet obtenir una funció densitat, la qual es comporta matemàticament igual que la densitat electrònica regular, podent-se així incorporar dins del marc de la semblança molecular. Les autosemblances calculades amb aquesta metodologia han portat a bones correlacions amb àcids aromàtics substituïts, podent així donar una explicació al seu comportament.Des d'un altre punt de vista, també s'han fet contribucions conceptuals. S'ha implementat una nova mesura de semblança, la d'energia cinètica, la qual consisteix en prendre la recentment desenvolupada funció densitat d'energia cinètica, la qual al comportar-se matemàticament igual a les densitats electròniques regulars, s'ha incorporat en el marc de la semblança. A partir d'aquesta mesura s'han obtingut models QSAR satisfactoris per diferents conjunts moleculars. Dins de l'aspecte del tractament de les matrius de semblança s'ha implementat l'anomenada transformació estocàstica com a alternativa a l'ús de l'índex Carbó. Aquesta transformació de la matriu de semblança permet obtenir una nova matriu no simètrica, la qual pot ser posteriorment tractada per a construir models QSAR. / The present work, even embraced by the Molecular Quantum Similarity Measures (MQSM) theory, is divided into three clearly defined frameworks:- Creation of Molecular IsoDensity Contours (MIDCOs) from fitted electronic densities.- Development of an alternative superposition method to replace the maximal similarity rule.- Quantitative Structure-Activity Relationships (QSAR).The objective in field of MIDCOs is the application of fitted density functions, initially developed to reduce the computational costs of calculating MQSM, in order to obtain MIDCOs. So, a graphical comparison is carried out using different fittings to different basis sets, derived from calculations carried out at ab initio level. In this way, the visual analogy between the density representations, along with the values of previously calculated similarity measures, which in turn are fully comparable, reinforces the usage of such fitted densities.Apart from the initial idea, two further studies were done to complement the simple density representations, these are the curvature analysis and the extension to macromolecules. The first step corresponds not only to verify the visual similarity between MIDCOs, but to ensure their coherence in their behaviour at curvature level, allowing to observe inflexion points in the representations and those regions where the density itself presents a convex or concave shape. This first study reveals that both fitted and ab initio densities behave in the same way. In the second study, the method was extended to larger molecules, up to 2500 atoms.Finally, some of the MEDLA philosophy is applied. Knowing that electronic density rapidly decays as it is measured further from nuclei, its calculation at large distances from the nearest nucleus can be avoided. In this way, a partition of the space was proposed, and the fitted density basis set is only calculated for each atom only in its vicinity. Using this procedure, the calculation time is reduced and the whole process becomes linear with the number of atoms of the studied molecule.In the chapter devoted to molecular superposition, the creation of an algorithm, along with its practical implementation, called Topo-Geometrical Superposition Algorithm (TGSA), able to direct those alignments that coincide with chemical intuition. The result is an informatics program, codified in Fortran 90, which aligns the molecules by pairs, considering only atomic numbers and coordinates. The complete absence of theoretical parameters allows developing a general superposition method, which provides an intuitive superposition, and it is also relevant, in a fast way without much user-supplied information. Major usage of TGSA has been devoted to provide an alignment to later compute similarity measures, which in turn do not customarily coincide with those values obtained from the maximal similarity rule, most if heavy atoms are present.Finally, in the last studied subject, devoted to the Quantum Similarity in the QSAR field, three different scopes are treated:1) Usage of similarity matrices. Here, the so-called similarity matrix, calculated from pairwise similarities in a molecular set, is latterly, and properly manipulated, used a source of molecular descriptors for QSAR studies. With in this framework, several correlation studies have been carried out, involving relevant pharmacological properties, as well as toxicity and physical properties.2) Application of the electron-electron repulsion energy. This simple contribution consists briefly of taking the value of this magnitude, and by analogy with the self-similarity notation, it is assimilated as a particular case of this measure. This interaction energy is easily obtainable from mecanoquantic software and becomes ideal in order to make a preliminary correlation study, where this magnitude is used as a single descriptor.3) Calculation of self-similarities, where the density has been modified to account a particular substituent. Previous studies using density fragments, even they provide valuable results, lack of conceptual rigour when isolating a fragment, supposed to be responsible for a particular molecular response, even those densities associated to a particular fragment are already different due to they belong to a common skeleton with different substitutions. A procedure able to fill the gap between usage of density fragments , which avoid the heavy atom effect, and the whole molecular density, which allows to compute a self-similarity, is proposed. It consists of using Fermi Hole density functions, where the holes are defined and averaged around a particular fragment. This procedure medifies the density in a way that is basically collapsed in this molecular bay, but allowing at the same time obtaining a a density function that behaves mathematically in the same way as a regular electronic density; hence it is included in the similarity framework. Those self-similarities computed using this procedure provide good correlations with substituted aromatic acids, allowing to provide an explanation for their acidic behaviour.From another point of view, conceptual contributions have been developed. A new similarity measure, Kinetic Energy-based, has been implemented, which consists of taking the recently developed Kinetic Energy density function, which has been incorporated into the similarity framework due to it mathematically behaves like a regular density function. Satisfactory QSAR models, derived from this new measure, have been obtained for several molecular systems. Within the similarity matrices field, it has been implemented a new scaling, called stochastic transformation, as an alternative to Carbó Index. This transformation of the matrix allows obtaining a new non-symmetric matrix, which can be later used as a source of descriptors to build QSAR model.
|
270 |
Development of high-performance algorithms for a new generation of versatile molecular descriptors. The Pentacle softwareDurán Alcaide, Ángel 04 March 2010 (has links)
The work of this thesis was focused on the development of high-performance algorithms for a new generation of molecular descriptors, with many advantages with respect to its predecessors, suitable for diverse applications in the field of drug design, as well as its implementation in commercial grade scientific software (Pentacle). As a first step, we developed a new algorithm (AMANDA) for discretizing molecular interaction fields which allows extracting from them the most interesting regions in an efficient way. This algorithm was incorporated into a new generation of alignmentindependent molecular descriptors, named GRIND-2. The computing speed and efficiency of the new algorithm allow the application of these descriptors in virtual screening. In addition, we developed a new alignment-independent encoding algorithm (CLACC) producing quantitative structure-activity relationship models which have better predictive ability and are easier to interpret than those obtained with other methods. / El trabajo que se presenta en esta tesis se ha centrado en el desarrollo de algoritmos de altas prestaciones para la obtención de una nueva generación de descriptores moleculares, con numerosas ventajas con respecto a sus predecesores, adecuados para diversas aplicaciones en el área del diseño de fármacos, y en su implementación en un programa científico de calidad comercial (Pentacle). Inicialmente se desarrolló un nuevo algoritmo de discretización de campos de interacción molecular (AMANDA) que permite extraer eficientemente las regiones de máximo interés. Este algoritmo fue incorporado en una nueva generación de descriptores moleculares independientes del alineamiento, denominados GRIND-2. La rapidez y eficiencia del nuevo algoritmo permitieron aplicar estos descriptores en cribados virtuales. Por último, se puso a punto un nuevo algoritmo de codificación independiente de alineamiento (CLACC) que permite obtener modelos cuantitativos de relación estructura-actividad con mejor capacidad predictiva y mucho más fáciles de interpretar que los obtenidos con otros métodos.
|
Page generated in 0.0231 seconds