• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 129
  • 38
  • 6
  • 2
  • 2
  • Tagged with
  • 177
  • 70
  • 50
  • 36
  • 32
  • 32
  • 27
  • 19
  • 19
  • 19
  • 18
  • 18
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Estudio computacional del receptor GABA_A α1ß2γ2 y su interacción con moléculas de interés biológico en el sitio de unión de benzodiazepinas

Amundarain, María Julia 15 March 2019 (has links)
Los receptores GABA_A son canales iónicos activados por ligandos y funcionan como los principales mediadores de la inhibición en el sistema nervioso central de mamíferos. Están formados por cinco subunidades formando un poro central conductor de iones. Cada combinación de subunidades presenta una función y localización determinada, de las cuales el subtipo α1ß2γ2 es el más abundante en el ser humano. Los receptores GABA_A intervienen en una miríada de procesos neurológicos y su desregulación genera las denominadas canalopatías. Por lo cual, el estudio de estos sistemas es indispensable para el desarrollo de fármacos y de tratamientos para mejorar la calidad de vida. En este trabajo de tesis se propone el estudio in silico del receptor GABA_A α1ß2γ2 mediante el empleo de técnicas de bioinformática y biofísica computacional, que incluyen simulaciones de docking molecular, dinámica molecular y técnicas de muestreo avanzado. Se desarrolló un modelo por homología del receptor empleando el receptor GABA_A homopent mero de subunidades ß3. El modelo fue validado a través de un cuidadoso análisis de su estereoquímica y su estabilidad mediante simulaciones de dinámica molecular. A continuación, se realizó un exhaustivo análisis de la unión de compuestos a dos sitios de unión en el dominio extracelular del modelo: el sitio ortostérico (donde se unen los ligandos que actúan directamente sobre la activación del canal) y el sitio de unión de gran afinidad de las benzodiazepinas (moduladores alostéricos). Los modos de unión encontrados fueron contrastados con información experimental disponible y se halló muy buena concordancia. El trabajo finalizó con el primer estudio computacional sobre la interacción putativa entre este receptor y la proteína DBI y fragmentos peptídicos derivados de su digestión. Este análisis permitió elaborar, por primera vez, una hipótesis respecto a los residuos involucrados en la interacción. / GABA_A receptors are pentameric ligand-gated ion channels which act as the main mediators of inhibitory signalling in the central nervous system of mammals. They are formed by five subunits arranged around a central ion-conducting pore. Each combination of subunits has a specific function and localization, the α1ß2γ2 subtype being the most abundant in homo sapiens. These receptors intervene in a myriad of neurological processes and their disregulation cause several channelopathies. Although they are very complex systems, their study is fundamental for the development of new drugs and therapies aimed at improving life quality. In this thesis we performed an in silico study of the α1ß2γ2 GABA_A receptor through the use of bioinformatics and computational biophysics tools, which include molecular docking, molecular dynamics and enhanced sampling techniques. A homology model was developed using the structure of the GABAA_A ß3 homopentamer. The model was validated through a thorough analysis of its stereochemistry and its stability was evaluated from molecular dynamics simulations. Moreover, an exhaustive evaluation of the binding modes of ligands to two extracellular sites was performed: the orthosteric site (ligands which act directly on the activation of the channel) and the high affinity binding site for benzodiazepines (allosteric modulators). The comparison of the binding modes to available experimental information showed great agreement. Finally, a computational study was carried out for the first time regarding the putative interaction of this receptor with DBI and its peptide fragments. This study allowed the formulation of the first hypotheses regarding the aminoacids involved in the interaction.
72

Estrategias de aprendizaje profundo aplicadas al descubrimiento de fármacos : representación molecular, modelado de bioactividad y analítica visual para cribado virtual

Sabando, Vir January 2024 (has links)
El desarrollo de nuevos fármacos constituye un área de investigación fundamental en la medicina moderna. Más allá de los vertiginosos avances científicos en informática molecular y bioquímica que abonan a su mejora continua, la inversión en tiempo y recursos es sumamente elevada, en contraste a su exigua tasa de éxito. Las estrategias computacionales juegan un rol clave en la optimización y eficiencia de las múltiples tareas involucradas en el desarrollo de medicamentos, que abarcan desde la representación molecular y el modelado predictivo de bioactividad hasta el cribado virtual de fármacos y el diseño de nuevas estructuras químicas. El objetivo de esta tesis se centró en el desarrollo y aplicación de estrategias computacionales novedosas basadas en aprendizaje profundo para contribuir a la optimización de las diversas etapas del descubrimiento de nuevos medicamentos. Las contribuciones de la presente tesis parten de un análisis crítico y permanente del estado del arte en informática molecular e involucran el diseño de nuevas estrategias aplicando conceptos y desarrollos de vanguardia en aprendizaje profundo. Como resultado de este trabajo, se lograron propuestas novedosas alineadas en tres ejes fundamentales del proceso de desarrollo de fármacos: representaciones moleculares, modelado predictivo de bioactividad, y analítica visual aplicada a cribado virtual de fármacos. En materia de modelado predictivo de bioactividad, desarrollamos enfoques de modelado QSAR capaces de alcanzar rendimientos predictivos superiores a los previamente reportados para un gran número de propiedades de relevancia en el área, sin necesidad de realizar selección de características. Propusimos un enfoque de definición del dominio de aplicabilidad químico para dichos modelos eficaz en la determinación del rango de confiabilidad de las predicciones, y desarrollamos una estrategia para brindar interpretabilidad a modelos QSAR basados en redes neuronales. Además, experimentamos con aprendizaje profundo multi-tarea, logrando un enfoque pionero para el modelado de mutagenicidad de Ames, que permite el aprendizaje conjunto de información de diferentes blancos farmacológicos, superando en rendimiento a los resultados previamente publicados. En el área de representación molecular, desarrollamos un riguroso trabajo de investigación y análisis comparativo de diversas estrategias de representación molecular tradicionales y basadas en aprendizaje profundo. Propusimos un diseño experimental para la comparación y evaluación del desempeño de dichas representaciones en modelado QSAR, cuyos resultados evidenciaron la importancia de la selección cuidadosa de la representación elegida y proporcionan un marco de referencia para posteriores estudios similares. Por último, presentamos una herramienta integral de analítica visual para cribado virtual que integra diferentes fuentes de información química y representaciones moleculares complementarias. Esta herramienta interactiva demostró ser eficaz en la asistencia a expertxs de química medicinal para la exploración visual de patrones de similitud estructural en grandes conjuntos de datos químicos y para el diseño de nuevos compuestos candidatos. / The development of new drugs constitutes a fundamental research area in modern medicine. Beyond the rapid scientific advances in molecular informatics and biochemistry, which contribute to its continuous improvement, the investment in time and resources is extremely high, in contrast to its limited success rate. Computational strategies play a key role in optimizing and streamlining the multiple tasks involved in drug development, ranging from molecular representation and predictive modeling of bioactivity profiles, to virtual drug screening and the design of novel chemical structures. The goal of this thesis focused on the development and application of novel computational strategies based on deep learning to contribute to the optimization of the many stages involved in the drug discovery process. The contributions of this thesis stem from a critical and ongoing analysis of the state of the art in molecular informatics and involve the design of new strategies by applying recent concepts and developments in deep learning. As a result of this work, we achieved a series of innovative proposals which align to three fundamental cornerstones of the drug development process: molecular representation, predictive modeling of bioactivity profiles, and visual analytics applied to virtual drug screening. In the field of predictive bioactivity modeling, we developed QSAR modeling approaches that achieved higher predictive performances than those previously reported for numerous relevant biochemical properties, while at the same time overcoming the need for a feature selection step. We proposed an approach to define the chemical applicability domain for these models, effectively determining the reliability range of predictions, and developed a strategy to provide interpretability to QSAR models based on neural networks. Additionally, we experimented with multi-task deep learning, achieving a pioneering approach for modeling Ames mutagenicity that allows the joint learning of information from different pharmacological targets, which outperformed previously published results. In the field of molecular representation, we conducted a rigorous research and comparative analysis of various traditional and deep learning-based molecular representation strategies. We proposed an experimental design for the comparison and evaluation of the performance of these representations in QSAR modeling, and the results highlighted the importance of carefully selecting the molecular representation for each task, while also providing a reference framework for subsequent similar studies. Finally, we introduced a comprehensive visual analytics tool for virtual screening that integrates different sources of chemical information and complementary molecular representations. This interactive tool proved to be effective in assisting medicinal chemistry experts in visually exploring structural similarity patterns in large chemical datasets and in the design of new candidate compounds.
73

Modelado y simulación de la distribución de energía eléctrica en sistemas genéricos consistentes en diversas fuentes y múltiples modos de transmisión. Optimización del uso de las fuentes con criterios de sostenibilidad

Valdivieso-Sarabia, Rafael J. 13 February 2014 (has links)
Esta investigación aborda el problema de la distribución eléctrica en sistemas genéricos compuestos por varias fuentes de energía (hidroeléctrica, eólica, solar, etc.), múltiples medios de transmisión (líneas de transmisión, medios de almacenamiento, convertidores, etc.) y varios centros de consumo (edificios, viviendas, electrodomésticos, portátiles, teléfonos móviles, etc.), concretamente, haciendo uso de criterios sostenibles que aprovechen las bondades de las fuentes de energía renovables. La aportación global de este trabajo es la generalidad del modelo formal de sistema eléctrico, basado en sistemas multiagente, y las estrategias de gestión parametrizadas, que permiten obtener sistemas de gestión de la distribución acordes a un problema concreto. En consecuencia, esta investigación abre una línea metodológica e instrumental para la obtención de soluciones al problema de la distribución eléctrica a todos los niveles, desde las redes de alta energía, hasta el microabastecimiento que requieren los dispositivos "wearable", desde las sencillas redes con fuente única de suministro, hasta las configuraciones híbridas multifrecuenciales e incluso multimedia (coexistencia de transporte de energía con datos e información de control).
74

Diseño del proceso de purificación de estireno mediante adsorción en alúmina

Rivero Martínez, María José 15 July 2002 (has links)
En este trabajo se ha realizado el diseño del proceso de purificación deestireno mediante adsorción en alúmina. Esta purificación consiste básicamente enla separación de agua y el inhibidor de la polimerización, 4-terc-butil catecol (TBC),presentes en el estireno como etapa previa en la obtención del caucho sintético, yaque la presencia de estos compuestos dificulta y encarece dicha operación.Para determinar las condiciones experimentales de trabajo, se ha tomadocomo referencia un proceso operativo actualmente a escala industrial en la plantade fabricación de caucho sintético que la empresa Dynasol Elastómeros posee enGajano (Cantabria). Así mismo, se ha empleado el estireno que esta empresautiliza como materia prima que posee alrededor de 150 mg/kg de agua y 15 mg/kgde TBC.En primer lugar, se ha procedido a la determinación de los equilibrios deadsorción agua-alúmina y TBC-alúmina. A continuación, se ha efectuado una seriede experimentos dinámicos a escala de laboratorio en los que se han obtenido laevolución de la concentración de cada uno de los adsorbatos en el estireno a lasalida de la columna de adsorción en función del tiempo. Posteriormente, se hallevado a cabo el desarrollo del modelo matemático para lo que se han analizadolas distintas etapas en el proceso de transferencia de materia, así como susconsecuentes resistencias, y se han obtenido los parámetros correspondientes.A continuación, se ha realizado un análisis del cambio de escala, para lo quese ha procedido a la construcción de una planta piloto en la propia factoría queproduce el caucho sintético, en la que se han realizado diversos experimentos quehan sido contrastados con las simulaciones que predecía el modelo matemático. Lacomparación ha permitido validar el modelo y los parámetros cinéticos.Finalmente, utilizando el modelo y los parámetros obtenidos en las etapasanteriores se ha simulado el proceso de purificación de estireno operativo a escalaindustrial. / In this work, the design of the purification process of styrene by adsorptiononto activated alumina, has been carried out. The purification consists basically ofremoving water and a polimerisation inhibitor, 4-terc-butyl catechol (TBC), as aprevious step in the manufacture of synthetic rubber.To determine the experimental working conditions, a real process thatoperates on industrial scale in a factory which produces synthetic rubber in Spain(Dynasol Elastómeros) has been taken as reference. The styrene used in this workis the industrial raw material and contains approximately 150 mg/kg of water and 15mg/kg of polimerisation inhibitor.First, adsorption equilibrium water-alumina and TBC-alumina have beenstudied. Then, some dynamic experiments on laboratory scale have been carriedout in order to obtain breakthrough curves for both adsorbates. A mathematicalmodel that describes the mass transfer process has been developed analysing thepossible resistances, and the corresponding parameters have been obtained.To analise the scale-up of the adsorption process a pilot plant has been builtin the synthetic rubber factory and the experimental results have been comparedwith the results predicted by the mathematical model. Finally, thanks to themathematical model, the parameters that have been obtained during the laboratoryscale experiments and its validation on pilot plant scale, a model that can describethe industrial process and can be useful to find the best operation conditions hasbeen developed.
75

Contribuciones al alineamiento de nubes de puntos 3d para su uso en aplicaciones de captura robotizada de objetos

Torre Ferrero, Carlos 08 November 2010 (has links)
En aplicaciones de captura robotizada se ha hecho necesario el uso de información tridimensional de los objetos que son manipulados. Esta información puede obtenerse mediante dispositivos de adquisición 3D, tales como escáneres láser o cámaras de tiempo de vuelo, que proporcionan imágenes de rango de los objetos. En este trabajo de tesis se presenta un nuevo enfoque para encontrar, sin disponer de una estimación previa, la transformación rígida que produzca una alineación adecuada de las nubes de puntos obtenidas con esos dispositivos. El algoritmo realiza una búsqueda iterativa de correspondencias mediante la comparación de descriptores 2D en varios niveles de resolución utilizando para ello una medida de similitud específicamente diseñada para el descriptor propuesto en esta tesis. Este algoritmo de alineamiento se puede utilizar tanto para modelado 3D como para aplicaciones de manipulación de objetos en situaciones en las que los objetos estén parcialmente ocluidos o presenten simetrías. / In applications of robotic manipulation of objects, the use of three-dimensional information of objects being manipulated has been made necessary. This information can be obtained by 3D acquisition devices, such as laser scanners or cameras of flight time, providing range images of objects. This thesis presents a new approach to find, without having a previous estimate, the Euclidean transformation that produces a proper alignment of point clouds obtained with these devices. The algorithm performs an iterative search for correspondences by comparing 2D descriptors at various levels of resolution using a similarity measure specifically designed for the descriptor proposed in this thesis. This alignment algorithm can be used for both 3D modelling and robotic manipulation applications when objects are partially occluded or have symmetries.
76

Viewpoint-driven Simplification of Polygonal Models using Information Theoretic measures

Castelló Boscá, Pascual 26 October 2007 (has links)
Los modelos poligonales actualmente dominan el campo de los gráficos interactivos. Esto es debido a su simplicidad matemática que permite que los más comunes algoritmos de visualización se implementen directamente en el hardware. Sin embargo la complejidad de estos modelos (medidos por el número de polígonos) crece más rápido que la capacidad del hardware grafico para visualizarlos interactivamente. Las técnicas de simplificación de polígonos ofrecen una solución para tratar estos modelos complejos. Estos métodos simplifican la geometría poligonal reduciendo el coste de visualización del modelo sin una pérdida del contenido visual del objeto. Esta idea aun sigue vigente aunque es una idea ya antigua en gráficos por ordenador. Durante los últimos años ha surgido un gran abanico de métodos de simplificación. La mayoría ha abordado el problema de la simplificación desde el punto de vista geométrico. Es decir, elaborando métricas que permiten guiar la simplificación calculando el error cometido en cada paso utilizando una medida puramente geométrica. Recientemente se han desarrollado nuevos métodos que intentan guiar el proceso de simplificación mediante una medida de similitud visual. En otras palabras, que los modelos simplificados se vean de forma parecida cuando se visualizan.El error geométrico es uno de los factores que influye en la similitud visual pero no es el único. Otros factores como las siluetas, las propias oclusiones y transparencias, los atributos de superficie, etc. influyen notablemente. En esta tesis se presenta un nuevo método de simplificación de mallas de polígonos. Este método realiza una simplificación guiada por el punto de vista, acometiendo una simplificación cuyo objetivo es garantizar la similitud visual. Esto permite que muchas aplicaciones cuyo objetivo sea la visualización interactiva como por ejemplo los juegos de ordenador se beneficien en buena medida. Se han propuesto diferentes métricas para conducir el método de simplificación desarrollado, todas ellas están basadas en la Teoría de la Información. El empleo de una métrica u otra permite llevar a cabo tres grandes tipos de simplificaciones. En el primer grupo se consigue una simplificación cuyo factor primordial es la similitud visual lo que conduce a la obtención de modelos simplificados cuya geometría oculta ha sido simplificada en gran medida o en su totalidad.En el segundo grupo de métricas se aborda la simplificación con el objetivo de la similitud visual pero respetando en mayor medida la geometría oculta del modelo. Con lo que el error geométrico es menor que en grupo anterior a costa de un mayor error visual. Finalmente, el tercer grupo permite que se pueda acometer una simplificación que intenta preservar las regiones visualmente salientes de la malla mediante la aplicación del concepto de saliency de malla, definido a partir de la divergencia de Jeshen-Shannon. Estas pequeñas regiones se mantienen mejor si se hace uso de este método, de otra forma serían eliminadas ya que tienen un coste de simplificación bajo.
77

Estimación estadística, modelado y análisis de la trasmisión y coste de la variabilidad en procesos multi-etapa. Aplicación en la fabricación de baldosas cerámicas

Gras Llopis, Matias Alberto 20 December 2010 (has links)
Metodología para estimar un modelo matemático desarrollado y validado a partir de la información obtenida en un proceso, para explicar y predecir la variación observable en una característica de calidad así como un modelo que explique el coste de la variación. Los modelos se obtienen utilizando herramientas de control estadístico y los conceptos de costes de calidad y su combinación permite identificar las actuaciones más eficaces para la mejora del proceso y predecir su resultado. La aplicación práctica se realiza en un proceso de fabriación de baldosas cerámicas para reducir la variación dimensional.
78

Comportamiento característico de la estructura vertical de la ionosfera en condiciones de calma y perturbadas

Blanch Llosa, Estefania 23 December 2009 (has links)
Aquesta investigació s'ha centrat en profunditzar en el coneixement del comportament de l'estructura vertical de la regió F de la ionosfera, tant en condicions de calma com pertorbades, i en la seva modelització mitjançant funcions analítiques. Les pretensions d'aquesta investigació han estat motivades per les discrepàncies existents entre les prediccions ionosfèriques del gruix i la forma del perfil de densitat de la regió F en condicions de calma i la seva variació característica, i per l'absència d'un model capaç de reproduir la resposta de l'altura del màxim de ionització en condiciones pertorbades. En aquesta investigació s'ha determinat el comportament patró del gruix i la forma del perfil de densitat electrònica de la regió F en condicions de calma (determinats pels paràmetres B0 i B1 del model Internacional de Referència de la Ionosfera, IRI) en un ampli rang de longituds i latituds. Amb això, s'ha desenvolupat un model global per a cada paràmetre mitjançant una formulació analítica simple que simula les variacions temporals d'aquests en condiciones de calma. La simulació d'aquests models millora (en termes de l'error quadràtic mig, RMSE) les prediccions de l'IRI en un 40% per a B0 i en un 20% per a B1. També s'ha caracteritzat la reacció de l'altura del màxim de ionització, hmF2, a latituds mitges i condicions magnèticament pertorbades, i s'ha determinat un comportament sistemàtic d'aquesta pertorbació, ∆hmF2, la morfologia de la qual depèn del camp magnètic interplanetari (IMF), del temps local, de l'estació de l'any i la latitud. Amb això, s'ha desenvolupat un model empíric que simula la pertorbació d'hmF2 resultant durant tempestes geomagnètiques intenses mitjançant funcions analítiques. Aquest model prediu els esdeveniments d'∆hmF2 amb un 86 % d'encert sense generar falses alarmes i amb un RMSE de 40 km respecte els valors experimentals, que és equivalent al rang de variació experimental obtingut en condicions de calma. Finalment, destacar que també han estat objecte d'estudi en aquesta investigació els mecanismes responsables del comportament ionosfèric tant en condiciones de calma com pertorbades i, especialment, el model de tempesta basat en el paper rector de la circulació del vent neutre termosfèric. / Esta investigación se ha centrado en profundizar en el conocimiento del comportamiento de la estructura vertical de la región F de la ionosfera, tanto en condiciones de calma como perturbadas, y en su modelado mediante funciones analíticas. Las pretensiones de esta investigación han estado motivadas por las discrepancias existentes entre las predicciones ionosféricas del espesor y la forma del perfil de densidad de la región F en condiciones de calma y su variación característica, y por la ausencia de un modelo capaz de reproducir la respuesta de la altura del máximo de ionización a condiciones perturbadas. En esta investigación se ha determinado el comportamiento patrón del espesor y la forma del perfil de densidad electrónica de la región F en condiciones de calma (determinados por los parámetros B0 y B1 del modelo Internacional de Referencia de la Ionosfera, IRI) en un amplio rango de longitudes y latitudes. Con esto, se ha desarrollado un modelo global para cada parámetro mediante una formulación analítica simple que simula las variaciones temporales de éstos en condiciones de calma. La simulación de estos modelos mejora (en términos del error cuadrático medio, RMSE) las predicciones del IRI en un 40% para B0 y en un 20% para B1. También se ha caracterizado la reacción de la altura del máximo de ionización, hmF2, en latitudes medias y condiciones magnéticamente perturbadas, y se ha determinado un comportamiento sistemático de dicha perturbación, ∆hmF2, cuya morfología depende del campo magnético interplanetario (IMF), del tiempo local, de la estación del año y de la latitud. Con ello, se ha desarrollado un modelo empírico que simula la perturbación en hmF2 resultante durante tormentas geomagnéticas intensas mediante funciones analíticas. Este modelo predice los eventos de ∆hmF2 con un 86% de acierto sin generar falsas alarmas y con un RMSE de 40 km respecto a los valores experimentales, que es equivalente al rango de variación experimental obtenido en condiciones de calma. Finalmente, resaltar que también han sido objeto de estudio en esta investigación los mecanismos responsables del comportamiento ionosférico tanto en condiciones de calma como perturbadas y, especialmente, el modelo de tormenta basado en el papel rector de la circulación del viento neutro termosférico. / The main objective of this research is to improve the knowledge on the vertical structure of the ionospheric F region during both, quiet and disturbed conditions, and its modelling by analytical functions. The main motivations of this research were the existing discrepancies between the predictions of the F region electron density profile thickness and shape during quiet conditions and their characteristic variation, and the absence of a model capable to reproduce the electron density peak height response to disturbed conditions. In this research, the pattern behaviour for quiet conditions of the F region electron density profile thickness and shape (determined by the International Reference Ionosphere model (IRI) parameters B0 and B1) was determined in a wide range of longitudes and latitudes. Then, a global model was developed for each parameter using a simple analytical formulation that simulates their temporal variations during quiet conditions. These model simulations improve (in terms of the root mean square error, RMSE) the IRI predictions by 40 % for B0 and by 20 % for B1. The reaction of the electron density peak height, hmF2, at mid latitudes and magnetically disturbed conditions, was also characterized and the systematic behaviour of this disturbance, ∆hmF2, was determined. The morphology of this disturbance depends on the interplanetary magnetic field (IMF), local time, season and latitude. Furthermore, an empirical model was developed to simulate the hmF2 disturbance during intense geomagnetic storms using analytical functions. This model predicts the ∆hmF2 events with a success of 86 % without generating false alarms and with a RMSE of 40 km with respect to the experimental values, which is equivalent to the experimental variation range obtained during quiet conditions. Finally, the mechanisms responsible of the ionospheric behaviour during both, quiet and disturbed conditions, were also studied in this research, specially the storm model based on the leading role of the thermospheric neutral wind circulation.
79

Estudio numérico-experimental de la dinámica de la zona cercana a la costa

Mosso Aranda, Octavio Cesar 07 July 2004 (has links)
En la actualidad, las decisiones en la ingeniería de costas y la gestión costera se apoyan, cada vez más, en los modelos numéricos predictivos de los procesos costeros, que por otra parte, se basan en modelos conceptuales simplificados que no reproducen de manera adecuada todos los procesos físicos relacionados en la dinámica costera. Buena parte de este problema se debe a la gran cantidad de incertidumbres que a día de hoy siguen existiendo en lo referente a la complejidad de la hidrodinámica, la transferencia de energía del oleaje a distintas escalas hidrodinámicas, la interacción de los flujos con el fondo marino y el transporte de sedimento y evolución del fondo resultantes. A pesar de esto y de su creciente demanda, raramente estos modelos se comparan (y validan) con datos de campo reales tomados en la zona de interés. Sin la adecuada calibración, la utilización de los resultados del modelado numérico de los procesos hidromorfodinámicos y de evolución costera a situaciones reales es, como mínimo, ambiguo y en ciertos casos podría ser hasta contraproducente. Para mejorar los planteamientos conceptuales de los modelos, es necesario realizar medidas de campo para mejorar el conocimiento de los procesos hidromorfodinámicos y que a su vez, sirvan para validar las predicciones numéricas. Dado que la mayor parte de los datos de campo disponibles se han tomado en playas en Estados Unidos, su utilidad para calibrar modelos en playas de otras partes del mundo es limitada. Para cubrir esta carencia, recientemente se han realizado importantes esfuerzos de investigación en este campo en Europa. En ésta tesis se presentan tres campañas de campo a nivel Europeo encaminadas, por una parte, a mejorar el conocimiento de los procesos físicos hidrodinámicos (Delta'93 y Delta'96 en el Delta del Ebro), y por otra, a la obtención de información esencial para la simulación numérica de los procesos morfodinámicos (Egmond, Holanda). El análisis de los datos obtenidos de las campañas Delta'93 y Delta'96 se ha centrado en la separación de las distintas escalas hidrodinámicas presentes en la zona cercana a la costa, la cuantificación de la transferencia de energía del oleaje a dichas escalas, la caracterización de la estructura vertical de las corrientes inducidas por la rotura del oleaje, la fricción con el fondo y la evolución batimétrica resultante. Los datos obtenidos de la campaña de Egmond se han utilizado para la calibración y validación del campo de oleaje, corrientes inducidas por la rotura y la evolución del perfil de playa predichas por un modelo hidromorfodinámico desarrollado en el LIM-UPC.
80

Mathematical modelling of the anchoring effect on the underconfidence bias / Modelado matemático del efecto del anclaje sobre el sesgo de subconfianza

Macbeth, Guillermo, Razumiejczyk, Eugenia 25 September 2017 (has links)
The anchoring effect is defined as the tendency of human thought to the fixation on certain pieces of information that affect decision-making. In the same context, the underconfidence bias is understood as an agent’s propensity to underestimate his or her own objective performance. While some aspects of these phenomena are well known, there are no formal models that specifically describe the relationship between both. This paper presents: i) an experiment that illustrates the anchoring effect on the underconfidence bias by both reducing and amplifying such bias in the domain of geographic decision tasks and ii) the foundations of a new mathematical model that promotes precision in the study of the relationship between anchoring and underconfidence. / Se define el efecto de anclaje como la tendencia del pensamiento humano a la fijación endeterminados fragmentos de información que afectan la toma de decisiones. El sesgo de subconfianza, por su parte, se entiende como la propensión de un agente a subestimar su desempeño objetivo. Si bien se conocen algunos aspectos de la interacción entre ambos efectos, no se dispone de modelos formales que describan tal relación específica. Este estudio presenta: i) un experimento que pone en evidencia el efecto que ejerce el anclaje tanto para reducir, como para amplificar la subconfianza en tareas de decisión geográfica y ii) los fundamentos de un modelo matemático novedoso que permite estudiar con mayor precisión la relación del anclaje con la subconfianza

Page generated in 0.0315 seconds