• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 2
  • Tagged with
  • 136
  • 136
  • 39
  • 30
  • 25
  • 24
  • 23
  • 21
  • 19
  • 18
  • 15
  • 15
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Estudio y formulación de operadores de cambio sobre bases de creencias Horn

Valdez, Néstor Jorge 09 December 2014 (has links)
La teoría de cambio de creencias estudia la forma en que un agente cambia sus creencias cuando adquiere nueva información. Así, el propósito principal de las investigaciones en el campo de la lógica de la teoría de cambio resulta en analizar cómo se producen tales cambios en el estado de creencias de un agente. Dos clases de cambios son principalmente estudiados, denominados contracción y revisión, para la eliminación de antiguas creencias y para la incorporación de nuevas creencias respectivamente. Dentro del terreno de cambio de creencias la teoría dominante es el marco AGM, donde las creencias son representadas como fórmulas lógicas, y asume una lógica subyacente que es al menos tan expresivo como la lógica proposicional. Debido a esta suposición, el marco AGM no se puede aplicar a sistemas con lógicas subyacentes que son menos expresivos que la lógica proposicional clásica tales como la lógica de Horn. El objetivo de esta tesis es ampliar la utilidad del marco AGM mediante la investigación de las contracciones de estilo AGM pero bajo lógica Horn y al que denominamos como contracciones Horn. Nuestras investigaciones se centraron, por un lado, en los principales métodos de construcción de contracción AGM. Algunas de estas construcciones básicas ya fueron adaptados bajo lógica Horn, siempre con respecto a una sola sentencia, sin embargo, su ampliación con respecto a conjunto de sentencias aún no habían sido abordados. Unas de nuestras contribuciones presentadas en esta tesis fue el de ampliar y adaptar estas construcciones a la lógica Horn. Las contracciones adaptadas de sentencias simples a sentencias múltiples son los modelos basados en contracción Horn: partial meet Horn p-contraction, maxichoice y full meet Horn p-contraction y infra Horn p-contraction. Además, se presentan una caracterización axiomática para las nuevas clases de funciones de contracción múltiples bajo lógica Horn. Las contracciones Horn múltiples se restringen a fórmulas Horn, por lo que es válido decir que una contracción Horn múltiple funciona tan racionalmente como lo hace una contracción múltiple AGM. Es decir, una contracción Horn múltiple es equivalente Horn a su equivalente original AGM si se comporta de manera idéntica en términos de fórmulas Horn. Por otro lado (y siguiendo con los tópicos de investigación de esta tesis), se propone mejorar la comprensión y operabilidad de una de las funciones de contracción formalizada bajo lógica Horn, nos referimos a la epistemic entrenchment Horn contraction y su condición (HC ), obteniendo como resultado, una forma aún más restringida a la ya existente para epistemic entrenchment Horn contraction, y con el objetivo de que la nueva operación de contracción Horn (modificada) satisfaga los postulados básicos y complementarios que caracterizan las operaciones de contracción Horn basados en epistemic entrenchment. Se logra con esto, una forma más apropiada de una operación de contracción Horn basado en importancia epistémica. / The theory of belief change studies how an agent changes its beliefs when it acquires new information. Thus, the primary purpose of research in the field of logic of theory change is to analyze how such changes occur in the state of belief of an agent. Two kinds of changes are mainly studied, contraction and revision called for the removal of old beliefs and to incorporate new beliefs respectively. Inside the field of belief change is the dominant theory AGM framework, where beliefs are represented as logical formulas, and assumes an underlying logic that is at least as expressive as propositional logic. Because of this assumption, the AGM framework can not be applied to systems with underlying logics that are less expressive than classical propositional logic such as Horn logic. The objective of this thesis is to extend the usefulness of the AGM framework by investigating contractions AGM style but under Horn logic and we call such Horn contractions. Our investigations concentrated on one side, in the main AGM contraction construction methods. Some of these basic constructions already been adapted under Horn logic, always with respect to a single sentence, however, regarding its expansion set of sentences not yet been addressed. One of our contributions presented in this thesis was to extend and adapt these buildings to Horn logic. Contractions simple sentences adapted to multiple sentences are based models Horn contraction: partial meet Horn p-contraction, and full meet maxichoice Horn p-contraction and infra Horn p-contraction. Moreover, an axiomatic characterization for new classes of functions of multiple contraction in Horn logic are presented. Horn multiple contractions restricted to Horn formulas, so it is valid to say that a Horn multiple contraction operates as rationally as does a AGM multiple contraction. Therefore, one Horn multiple contraction is Horn equivalent to the original equivalent AGM if behaves identically in terms of Horn formulas. On the other hand (and continuing with the research topics of this thesis), aims to improve understanding and operability of the functions of contraction formalized in Horn logic, we refer to the epistemic entrenchment Horn contraction and their (HC ) condition, resulting in an even more restricted to the existing epistemic entrenchment Horn contraction, and in order that the new Horn contraction operation (modified) satisfies basic and complementary postulates that characterize operations epistemic entrenchment based Horn contraction. This is achieved with a more appropriate form of a Horn contraction operation based on epistemic importance.
102

Desarrollo de métodos analíticos y de predicción para informática molecular basados en técnicas de aprendizaje automático y visualización

Martínez, María Jimena 06 July 2017 (has links)
Los distintos procesos involucrados en la industria química deben ser estudiados cuidadosamente con el fin de obtener productos de calidad al menor costo y causando el mínimo daño al medio ambiente (ej. industria de polímeros sintéticos y diseño racional de fármacos). Hace ya varios años que distintos métodos computacionales son utilizados en la industria química con el fin de lograr esos objetivos. En particular, el modelado QSAR/QSPR es una técnica de gran interés dentro del área de la informática molecular, ya que permite correlacionar de manera cuantitativa características estructurales de una entidad química con una determinada propiedad físico-química o actividad biológica. El objetivo de esa tesis fue desarrollar distintas metodologías para asistir a expertos en informática molecular en el proceso de predicción de propiedades fisicoquímicas o de actividad biológica. Más específicamente, las técnicas desarrolladas se enfocan en incorporar al proceso de modelado predictivo QSAR/QSPR, el conocimiento del experto en el dominio. De esta manera se logran mejorar ciertas características de los modelos, tales como su interpretación en términos físicos-químicos, las cuales permite aumentar la generalidad del modelo. Al respecto, se ha implementado una herramienta de analítica visual, denominada VIDEAN, que combina métodos estadísticos con visualizaciones interactivas para elegir un conjunto de descriptores que predigan una determinada propiedad objetivo. Otro de los aportes de esta tesis está relacionado con el dominio de aplicación de un modelo QSAR/QSPR. En este sentido, se ha implementado una técnica para determinar el dominio de aplicación de modelos de clasificación. Esto representa una novedad dado que la mayoría de las técnicas desarrolladas para este fin apuntan exclusivamente a los modelos de regresión. Los métodos implementados han sido evaluados mediante el estudio de propiedades de relevancia para tres campos de aplicación: el diseño racional de fármacos, el diseño de materiales poliméricos (plásticos) y las ciencias ambientales. Con este fin, se han desarrollado numerosos modelos predictivos de regresión y clasificación. En el área de diseño racional de fármacos, las propiedades que se estudiaron están relacionadas con el comportamiento ADMET (absorción, distribución, metabolismo, excreción y toxicidad) de los mismos: absorción intestinal humana (Human Intestinal Absorption, HIA) y el pasaje de la barrera hemato-encefálica (Blood-Brain Barrier, BBB), ambas esenciales para el desarrollo de nuevos fármacos. En el campo de los materiales poliméricos, se exploraron varias propiedades mecánicas, que proporcionan información relacionada con la ductilidad, resistencia y rigidez del material polimérico; y que, junto con otras propiedades, definen su perfil de aplicación estructural. Estas propiedades son: elongación a la rotura (elongation at break), resistencia a tensión en la rotura (tensile strength at break) y módulo elástico (tensile modulus). En el área de medioambiente, la propiedad que se estudió fue el coeficiente de distribución sangre-hígado (log Pliver) en compuestos orgánicos volátiles (VOCs), que son gases que se emiten de ciertos sólidos o líquidos y que son ampliamente utilizados como ingredientes en productos para el hogar (pinturas, los barnices, productos de limpieza, desinfección, cosmética, entre otros). Los resultados de estudios de este tipo de propiedades brindan un panorama de cómo se distribuyen estos tipos de compuestos en el organismo y pueden emplearse para la evaluación de riesgos y toma de decisiones en materia de salud pública. / The various processes involved in the chemical industry must be carefully studied in order to obtain quality products at the lowest cost and causing the least damage to the environment (e.g. synthetic polymer industry and rational drug design). During the last two decades, different computational methods have been used in the chemical industry in order to achieve these objectives. In particular, QSAR/QSPR modeling is a technique of great interest in the area of molecular informatics, since it allows to quantitatively correlate structural characteristics of a chemical entity with a given physical-chemical or biological activity. The objective of this thesis was to develop different methodologies to assist molecular computing experts in the process of predicting physicochemical or biological activity properties. More specifically, the techniques developed focus on incorporating domain expert's knowledge into the traditional automated predictive modeling process. In this way, certain characteristics of the models can be improved, such as their interpretation in physical-chemical terms, which allow to increase the generality on the model. In this sense, a visual analytics tool, called VIDEAN, has been implemented to combine statistical methods with interactive visualizations to choose a set of molecular descriptors that predict a specific target property. Another contribution of this thesis focuses on the implementation of a technique to determine the applicability domain of QSAR/QSPR classification models. In this regard, a technique has been implemented to determine the applicability domain of classification models. This represents a novelty given that most of the techniques developed for this purpose are exclusively intended for regression models. Implemented methods have been evaluated using target properties of relevance in three application areas: rational drug design, design of polymeric materials (plastics) and environmental sciences. To this end, different predictive regression and classification models were proposed that overcome in performance and interpretability to other traditional models have been developed. To this end, numerous regression and classification models have been developed. In rational drug design, the properties that were studied are related to the ADMET behavior (absorption, distribution, metabolism, excretion and toxicity): Human Intestinal Absorption (HIA) and Blood-brain barrier (BBB), both essential for the development of new drugs. In the field of polymeric materials, various mechanical properties, which provide information related to the ductility, strength and rigidity of the polymeric material were explored, and which, along with other properties define its structural application profile. These properties are: elongation at break, tensile strength at break and tensile modulus. In environment area, the property studied was the blood - liver distribution coefficient (log Pliver) in volatile organic compounds (VOCs), which are gases that are emitted from certain solids or liquids and are widely used as ingredients in products for the home (paints, varnishes, cleaning products, disinfection, cosmetics, among others). The results obtained from this studies provide an overview of how these types of compounds are distributed in the body and can be used for risk assessment and public health decision making.
103

Aplicación de nuevas metodologías analíticas a sistemas determinativos y de "screening" para el estudio muestras ambientales y alimentos : desarrollo y validación de dispositivos basados en detección por imágenes

Vidal, Ezequiel M. 11 December 2020 (has links)
Las nuevas tecnologías han evolucionado y forman parte de nuestra vida cotidiana. De esta manera, tecnologías prácticamente marginales hace apenas un cuarto de siglo, hoy se consolidan como esenciales. Tales avances han propiciado la aparición de técnicas analíticas que, basándose en instrumentación no convencional, han permitido simplificar, economizar y popularizar sistemas determinativos. El desarrollo de técnicas de fabricación automatizadas y accesibles como lo son las impresoras en tres dimensiones incrementan la cantidad de posibilidades para crear dispositivos o sistemas para determinaciones químicas. La presente tesis consiste en el desarrollo de sistemas analíticos originales basados en detección por imagen y aplicando técnicas de impresión en tres dimensiones, así como también la implementación del papel como sustrato para la generación de dispositivos determinativos. El primer trabajo describe la generación de un dispositivo microfluídico basado en papel con detección simultánea de fluoruros y nitritos, utilizando un teléfono celular inteligente en muestras de aguas de la ciudad de Bahía Blanca y la región. En el segundo trabajo se desarrolló un dispositivo analítico impreso en 3D con detección por imagen para la determinación de sulfatos y quinina en muestras de agua y bebidas gaseosas. El tercer trabajo desarrolla la creación de un espectrofotómetro con detección basada en imagen para el control de diluciones de hipoclorito de sodio realizadas en diferentes muestras de aguas. El cuarto trabajo desarrolla el diseño, la fabricación y la validación de un espectrofotómetro-fluorímetro dual para la determinación de curcumina en muestras de alimentos. A lo largo de esta tesis los métodos utilizados se basaron en la aplicación de los principios de la química verde, sobre todo en la reducción de reactivos químicos utilizados, aplicando métodos simples, rápidos y económicos. / New technologies have evolved and are part of our daily life. In this way, practically marginal technologies just a quarter of a century ago, today are consolidated as essential. Such advances have led to the appearance of analytical techniques that, developed with unconventional instrumentation, have made it possible to simplify, economize, and popularize determinative systems. The development of automated and accessible manufacturing techniques such as three-dimensional printers increase the number of possibilities to create devices or systems for chemical determinations. This thesis consists of the development of original analytical systems based in image detection and applying three-dimensional printing techniques, as well as the implementation of paper as a substrate for the generation of determinative devices. The first work describes the generation of a paper-based microfluidic device with simultaneous detection of fluorides and nitrites, using a smart cell phone in water samples from the city of Bahía Blanca and its region. In the second work is a 3D printed analytical device with image detection for the determination of sulfates and quinine in local water samples and soft drinks. The third work develops the creation of a spectrophotometer with image-based detection to control dilutions of sodium hypochlorite carried out in different water samples. The fourth work develops the design, manufacture and validation of a dual fluorimeter-spectrophotometer for the determination of curcumin in food samples. Throughout this thesis the methods used were based on the application of the principles of green chemistry, especially in the reduction of chemical reagents used, applying simple, fast and cheap methods.
104

Formalización de sistemas argumentativos con ataque y soporte a inferencias

Cohen, Andrea 04 December 2014 (has links)
Esta tesis comprende el estudio y formalización de herramientas para la representación de conocimiento y razonamiento en sistemas argumentativos. En particular, se proponen dos formalismos argumentativos que permiten la utilización y combinación de soporte y ataque a reglas de inferencia. Los formalismos aquí desarrollados abordan esta temática desde dos enfoques complementarios. El primero de ellos provee un marco unificado para modelar estas nociones en un contexto de argumentación abstracta, mientras que el segundo corresponde a un sistema argumentativo basado en reglas que permite expresar soporte y ataque a reglas rebatibles de un lenguaje de programación lógica. Para cada uno de los formalismos propuestos se abordaría la definición del sistema, así como también el análisis de propiedades satisfechas por el mismo. Los sistemas argumentativos definidos en esta tesis extienden a otras aproximaciones existentes en la literatura, incorporando características y elementos que aún no habían sido considerados conjuntamente por los formalismos desarrollados hasta el momento. Concretamente, los formalismos aquí propuestos incorporan en forma conjunta las nociones de backing y undercutting, de reconocida importancia en el área de argumentación. Asimismo, estos formalismos fueron concebidos de manera tal que es posible instanciar el marco argumentativo abstracto con el sistema argumentativo concreto, favoreciendo así su implementación computacional. / This thesis concerns the study and formalization of tools for knowledge representation and reasoning in argumentation systems. We propose two argumentation formalisms that allow for the consideration and combination of attack and support for inference rules. The former provides a unified framework for modeling these notions within the context of abstract argumentation, whereas the latter corresponds to a rule-based argumentation system that allows for attack and support for defeasible rules in a logic programming setting. For each of the proposed systems we provide its formal definiton, and we analyze several properties that are satisfed. The formalisms developed in this thesis extend other existing approaches in the literature by incorporating some elements and features that were not yet considered together by the formalisms developed so far. Specifically, the argumentation systems proposed here incorporate the notions of backing and undercutting in a joint manner; two notions of great importance within the community of argumentation. Also, these formalisms were conceived in such a way that it is possible to instantiate the abstract argumentation framework with the rule-based argumentation system, thus benefiting its computational implementation.
105

Predicción del desempeño de las técnicas de visualización a partir de métricas sobre los datos

Urribarri, Dana Karina 23 September 2014 (has links)
El objetivo de una visualización es obtener una representación del conjunto de datos que ayude al usuario en la correcta interpretación de los mismos y así lograr un acertado análisis de éstos. Dado el constante crecimiento de los conjuntos de datos en diferentes y variados campos de la información, la tarea de elegir la técnica más adecuada para visualizar convenientemente los datos no es sencilla. Además, el resultado del proceso de visualización depende de todas las decisiones que se hayan tomando a lo largo de dicho proceso: un usuario inexperto es propenso a tomar decisiones equivocadas afectando negativamente la visualización obtenida y, a la larga, frustrando su experiencia con la visualización. Si bien a la hora de visualizar conjuntos de datos pequeños no hay grandes desafíos, la situación cambia al intentar visualizar grandes conjuntos de datos: una mala decisión en cualquier punto del proceso de visualización y el resultado obtenido puede no ser satisfactorio. Una alternativa para solucionar este problema es guiar al usuario en la toma de decisiones a lo largo del proceso. Sin embargo, esta tarea no es sencilla: implica la existencia de herramientas que permitan predecir qué decisión es “más conveniente” tomar. Una forma de elegir la decisión más conveniente es basarse en métricas sobre los datos que describan aspectos claves de la técnica y permitan predecir el resultado final sin necesidad de aplicar la técnica sobre los datos. / The goal of visualization is to achieve a representation of a dataset that helps the user to interpret them correctly and achieve a proper analysis. Given the constant growing of datasets in deferent application areas, the task of choosing the more suitable technique to visualize a dataset is not easy. Besides, the result of the visualization process depends on every decision made along it: an unskilled user is prone to make incorrect decisions which affect negatively the final visualization and, eventually, frustrate the user’s experience with the visualization. Visualizing small datasets is not a big challenge, but this changes when trying to visualize big datasets: a wrong decision at any point in the visualization process and the result might not be satisfactory. A solution to this problem is to guide the user while making decisions along the process. Nevertheless, this task is not easy: it implies the existence of tools which allow the prediction of what decision if “more advisable” to make. A way to choose the more advisable decision is using metrics over the data which describe key aspects of the techniques and allow the prediction of the final result without applying the technique to the dataset.
106

Integración de técnicas cualitativas y cuantitativas en los sistemas de recomendación

Briguez, Cristian Emanuel 16 December 2019 (has links)
Los sistemas de recomendación se han hecho cada vez más frecuentes en los últimos años, ya que ayudan a los usuarios a acceder a elementos relevantes del vasto universo de posibilidades disponibles en estos días. La mayoría de las investigaciones existentes en el área se basan puramente en aspectos cuantitativos, tales como índices de popularidad o medidas de similitud entre elementos o usuarios. En esta tesis se desarrollaron distintos modelos para la implementación de sistemas de recomendación, que incorporan aspectos que difieren de los más clásicos de un recomendador. Uno de los modelos desarrollados incorpora la noción de confiabilidad, mientras que otro fomenta la transparencia de la recomendación para los usuarios y la flexibilidad para instanciar las preferencias de recomendación en un sistema de recomendación. Los modelos propuestos incorporan el uso de argumentos a favor o en contra de las recomendaciones para determinar si una sugerencia debe ser presentada o no a un usuario. Para lograr esto, se adopta la Programación Lógica Rebatible (DeLP, del inglés, Defeasible Logic Programming) como el formalismo subyacente para modelar hechos y reglas sobre el dominio de recomendación y para computar el proceso de argumentación. Este enfoque tiene varias ventajas sobre otras técnicas de recomendación existentes. En particular, las recomendaciones se pueden refinar fácilmente en cualquier momento agregando nuevas reglas pulidas. También, queda en evidencia la capacidad de inferencia de los modelos propuestos. Lo más importante es que las explicaciones que apoyan cada recomendación pueden proporcionarse de una manera que sea fácil de entender para el usuario, por medio de los argumentos calculados. / Recommender systems have become prevalent in recent years as they help users to access relevant items from the vast universe of possibilities available these days. Most existing research in this area is based purely on quantitative aspects such as indices of popularity or measures of similarity between items or users. In this thesis, different models were developed for the implementation of recommendation systems, which incorporate aspects that differ from those classically found in a recommender. One of the models developed incorporate the notion of trust, while another promotes the transparency of the recommendation for users and the flexibility to instantiate recommendation preferences in a recommendation system. The proposed models incorporate the use of arguments in favor or against recommendations to determine if a suggestion should be presented or not to a user. In order to accomplish this, Defeasible Logic Programming (DeLP) is adopted as the underlying formalism to model facts and rules about the recommendation domain and to compute the argumentation process. This approach has a number of advantages over other existing recommendation techniques. In particular, recommendations can be easily refined at any time by adding new polished rules. Also, the inference capability of the proposed models is evident. Most importantly, explanations supporting each recommendation can be provided in a way that is easily understood by the user, by means of the computed arguments.
107

Interacción humano computadora en ambientes virtuales

Selzer, Matias Nicolás 21 November 2018 (has links)
La Interacción Humano Computadora es la rama de las Ciencias de la Computación que busca conectar a los humanos con los sistemas computacionales de forma natural e intuitiva. Los humanos interactúan con la realidad a través de sus sentidos y la Realidad Virtual conecta a los humanos con los mundos virtuales. Gracias a los avances tecnológicos de las últimas décadas, cientos de dispositivos e interfaces han surgido para intentar lograr esta conexión. Sin embargo, la mayoría de estos dispositivos fracasan al no estar diseñados en torno a la usabilidad. Aunque existen libros y trabajos en la literatura que realizan un relevamiento sobre los distintos dispositivos e interfaces utilizados en Realidad Virtual, ninguno lo hace desde el punto de vista de la Interacción Humano Computadora. Esta tesis se enfoca en los sistemas de Realidad Virtual existentes desde el punto de vista de la Interacción Humano Computadora y la usabilidad. Específicamente, esta tesis presenta un relevamiento exhaustivo de las técnicas y dispositivos existentes para interconectar al humano a través de sus sentidos con la Realidad Virtual. Las discusiones y conclusiones presentadas en cada capítulo analizan las características, ventajas y desventajas de aquellas técnicas y dispositivos asociados a cada sentido. A partir de esto, esta tesis no solo sirve como guía a la hora de seleccionar el dispositivo más adecuado para ser utilizado en una aplicación de Realidad Virtual particular, sino que también, presenta las características a tener en cuenta a la hora de diseñar y desarrollar nuevos dispositivos. / Human Computer Interaction is the area of Computer Science which main goal is to connect humans with computer systems in a natural and intuitive way. Humans interact with reality through their senses and Virtual Reality connects humans with virtual worlds. Thanks to the technological advances of the last decades, hundreds of devices and interfaces have emerged to try to achieve this connection. However, most of these devices fail because they are not designed based on usability. Although there are books and works in the literature that perform a survey on the different devices and interfaces used in Virtual Reality, none do so from the point of view of Human Computer Interaction. This thesis focuses on the existing Virtual Reality systems from the point of view of Human Computer Interaction and usability. Specifically, this thesis presents a survey of the existing techniques and devices to interconnect humans with the Virtual Reality through their senses. The discussions and conclusions presented in each chapter analyze the features, advantages and disadvantages of those techniques and devices associated to each sense. Hereby, this thesis not only provides a guide for selecting the most suitable device to be used in a particular Virtual Reality application, but also presents the characteristics to be taken into account when designing and developing new devices.
108

Simulación de superficies de fluídos en tiempo real mediante el método de Lattice Boltzmann

García Bauza, Cristian Darío 22 March 2013 (has links)
En esta tesis se investigaron modelos de simulación en tiempo real para animaciones de superficies líquidas, basados en un modelo de Lattice Boltzmann de la física de aguas superficiales. La implementación de dichos modelos permitió implementar un motor físico capaz de producir escenas de estanques o aguas abiertas, cuya superficie reacciona a las perturbaciones introducidas interactivamente por el usuario. Estas perturbaciones pueden ser por ejemplo la agitación provocada por un objeto movible (hélice, barco u otro objeto definido mediante una triangulación arbitraria), u otro tipo de perturbaciones externas, como por ejemplo efectos de lluvia. Un aspecto significativo del modelo investigado fue el tratamiento de bordes y obstáculos internos móviles, que intervienen como condiciones de contorno en el esquema numérico. Se implementó para ello un modelo completo de interacción fluido-objeto que simula en forma flexible escenarios de ondas producidas por embarcaciones, reflejos del frente de onda en puentes, y otras situaciones de interés en animación, tanto para la animación de efectos especiales como para simuladores de entrenamiento náutico. En particular, se propuso una estrategia novedosa para el cálculo de la fuerza de flotabilidad basada en la integral de la presión del fluido sobre la superficie sumergida del objeto. El método propuesto es más versátil y exacto que otros esquemas que estiman el volumen y aproximan el centro de carena, y es muy fácil de incorporar a cualquier implementación de simulación de fluidos basada en grillas. Los tiempos de cálculo obtenidos son razonables y permiten utilizar el método en aplicaciones de computación gráfica interactivas con una adecuada tasa de cuadros por segundo en equipos de cómputo convencionales. La validación se realizó con escenarios tridimensionales, mostrando muy buena concordancia con otras simulaciones y métodos numéricos más sofisticados y que consumen muchos más recursos. El modelo completo de simulación está disponible en Internet1 para ser utilizado como biblioteca y ha sido descargado más de 4.000 veces con visitas de Croacia, EEUU, Rusia y Turquía. Adicionalmente, los videos generados a partir de esta tesis, han conseguido más de 21.000 visitas en el sitio Youtube. La facilidad de uso del módulo ha hecho que se utilice en aplicaciones de campos tan variados como el arte escénico, la domótica o los videojuegos. Clasificación (ACM CSS 1998): I.3.5 Computer Graphics - Computational Geometry and Object Modeling, Physically based modeling. I.3.7 Computer Graphics - Three-Dimensional Graphics and Realism, Animation. Palabras clave: LBM, Animación basada en física, Computación Gráfica, Simulación de superficies de fluido / This thesis presents the research results of real-time algorithms for interactive liquid surfaces animation, based on a Lattice Boltzmann model which represents the surface-water interface equations. These results are developed and thoroughly tested, resulting in a physical engine able to produce dynamic scenes of ponds or open waters, with surfaces that react to the perturbations introduced interactively by the users. Examples of these perturbations are the agitation induced by moving objects (ships, propellers, or any specific object defined by an arbitrary triangulation), or other type of external perturbation, like rain drops. A major topic developed in this work was the treatment of fixed and dynamic borders, like bridges’ columns or boats, which are represented as dynamic boundary conditions or external forces that interact with the numeric simulation. The solution led to a complete model for fluid-structure interaction (i.e., fluid-to-structure and structure-to fluid) that provides flexible representations of waves produced by boats, wave reflections in bridges, and other situations of interest in computer animation, either for the creation of special effects or in the graphic support of nautical training simulators. In particular, a novel strategy for the calculation of the buoyancy force was introduced, based in the integration of the hydrostatic pressure over the solid immersed surfaces. The proposed method is more versatile and accurate than other schemes based on the tracking of the center of buoyancy, and it is very easy to implement in grid based representations. Even though the main purpose of this work was aimed to produce physically and visually accurate simulations, the resulting implementation achieves reasonable calculation times. Thus, the application of this model in interactive computer graphics achieves an adequate frame rate using conventional desktop computers without losing accuracy, using more efficiently the computational resources than other more sophisticated numerical methods. The engine is freely available on the Internet2 as a library, which was downloaded more than 4,000 times including visits from Croacia, USA , Russia and Turkey. Additionally, the videos generated using the product of the present thesis have been viewed by more than 21,000 visits in YouTube. The flexibility of the engine was demonstrated in the variety of applications generated from it, like scenic art, domotics and videogames. Clasification (ACM CSS 1998): I.3.5 Computer Graphics - Computational Geometry and Object Modeling, Physically based modeling. I.3.7 Computer Graphics - Three-Dimensional Graphics and Realism, Animation. Keywords: LBM, Physics based animation, Computer Graphics, Surface waters.
109

Estrategias de aprendizaje profundo aplicadas al descubrimiento de fármacos : representación molecular, modelado de bioactividad y analítica visual para cribado virtual

Sabando, Vir January 2024 (has links)
El desarrollo de nuevos fármacos constituye un área de investigación fundamental en la medicina moderna. Más allá de los vertiginosos avances científicos en informática molecular y bioquímica que abonan a su mejora continua, la inversión en tiempo y recursos es sumamente elevada, en contraste a su exigua tasa de éxito. Las estrategias computacionales juegan un rol clave en la optimización y eficiencia de las múltiples tareas involucradas en el desarrollo de medicamentos, que abarcan desde la representación molecular y el modelado predictivo de bioactividad hasta el cribado virtual de fármacos y el diseño de nuevas estructuras químicas. El objetivo de esta tesis se centró en el desarrollo y aplicación de estrategias computacionales novedosas basadas en aprendizaje profundo para contribuir a la optimización de las diversas etapas del descubrimiento de nuevos medicamentos. Las contribuciones de la presente tesis parten de un análisis crítico y permanente del estado del arte en informática molecular e involucran el diseño de nuevas estrategias aplicando conceptos y desarrollos de vanguardia en aprendizaje profundo. Como resultado de este trabajo, se lograron propuestas novedosas alineadas en tres ejes fundamentales del proceso de desarrollo de fármacos: representaciones moleculares, modelado predictivo de bioactividad, y analítica visual aplicada a cribado virtual de fármacos. En materia de modelado predictivo de bioactividad, desarrollamos enfoques de modelado QSAR capaces de alcanzar rendimientos predictivos superiores a los previamente reportados para un gran número de propiedades de relevancia en el área, sin necesidad de realizar selección de características. Propusimos un enfoque de definición del dominio de aplicabilidad químico para dichos modelos eficaz en la determinación del rango de confiabilidad de las predicciones, y desarrollamos una estrategia para brindar interpretabilidad a modelos QSAR basados en redes neuronales. Además, experimentamos con aprendizaje profundo multi-tarea, logrando un enfoque pionero para el modelado de mutagenicidad de Ames, que permite el aprendizaje conjunto de información de diferentes blancos farmacológicos, superando en rendimiento a los resultados previamente publicados. En el área de representación molecular, desarrollamos un riguroso trabajo de investigación y análisis comparativo de diversas estrategias de representación molecular tradicionales y basadas en aprendizaje profundo. Propusimos un diseño experimental para la comparación y evaluación del desempeño de dichas representaciones en modelado QSAR, cuyos resultados evidenciaron la importancia de la selección cuidadosa de la representación elegida y proporcionan un marco de referencia para posteriores estudios similares. Por último, presentamos una herramienta integral de analítica visual para cribado virtual que integra diferentes fuentes de información química y representaciones moleculares complementarias. Esta herramienta interactiva demostró ser eficaz en la asistencia a expertxs de química medicinal para la exploración visual de patrones de similitud estructural en grandes conjuntos de datos químicos y para el diseño de nuevos compuestos candidatos. / The development of new drugs constitutes a fundamental research area in modern medicine. Beyond the rapid scientific advances in molecular informatics and biochemistry, which contribute to its continuous improvement, the investment in time and resources is extremely high, in contrast to its limited success rate. Computational strategies play a key role in optimizing and streamlining the multiple tasks involved in drug development, ranging from molecular representation and predictive modeling of bioactivity profiles, to virtual drug screening and the design of novel chemical structures. The goal of this thesis focused on the development and application of novel computational strategies based on deep learning to contribute to the optimization of the many stages involved in the drug discovery process. The contributions of this thesis stem from a critical and ongoing analysis of the state of the art in molecular informatics and involve the design of new strategies by applying recent concepts and developments in deep learning. As a result of this work, we achieved a series of innovative proposals which align to three fundamental cornerstones of the drug development process: molecular representation, predictive modeling of bioactivity profiles, and visual analytics applied to virtual drug screening. In the field of predictive bioactivity modeling, we developed QSAR modeling approaches that achieved higher predictive performances than those previously reported for numerous relevant biochemical properties, while at the same time overcoming the need for a feature selection step. We proposed an approach to define the chemical applicability domain for these models, effectively determining the reliability range of predictions, and developed a strategy to provide interpretability to QSAR models based on neural networks. Additionally, we experimented with multi-task deep learning, achieving a pioneering approach for modeling Ames mutagenicity that allows the joint learning of information from different pharmacological targets, which outperformed previously published results. In the field of molecular representation, we conducted a rigorous research and comparative analysis of various traditional and deep learning-based molecular representation strategies. We proposed an experimental design for the comparison and evaluation of the performance of these representations in QSAR modeling, and the results highlighted the importance of carefully selecting the molecular representation for each task, while also providing a reference framework for subsequent similar studies. Finally, we introduced a comprehensive visual analytics tool for virtual screening that integrates different sources of chemical information and complementary molecular representations. This interactive tool proved to be effective in assisting medicinal chemistry experts in visually exploring structural similarity patterns in large chemical datasets and in the design of new candidate compounds.
110

Un marco de trabajo para el diseño e implementación de pruebas de software aplicadas a una API desarrollada en Scrum

Malpica Martinez, Silvana Yasmin January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Malpica Martinez, Silvana Yasmin asesor: Alarcón Loayza, Luis Describe el proceso de control de la calidad de una API durante su mantenimiento y actualización que se llevó a cabo siguiendo las buenas prácticas de la metodología Scrum en la empresa Belatrix. Para este proyecto se desarrolla tanto pruebas funcionales como no funcionales. Dentro las de las pruebas funcionales, se automatizan los escenarios correspondientes con las pruebas de regresión. Se utiliza Java para escribir los scripts y TestNG como framework de las pruebas automatizadas. En el ámbito de la performance, se realizan pruebas de rendimiento, de carga y de estrés con la herramienta JMeter. / Trabajo de suficiencia profesional

Page generated in 0.1534 seconds