• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 5
  • 1
  • Tagged with
  • 27
  • 8
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Two satellite-based rainfall algorithms, calibration methods and post-processing corrections applied to Mediterranean flood cases

de Luque Söllheim, Ángel Luis 14 March 2008 (has links)
Esta tesis explora la precisión de dos métodos de estimación de precipitación, Auto-Estimator y CRR (Convective Rainfall Rate), generados a partir de imágenes infrarrojas y visibles del Meteosat. Ambos métodos junto con una serie de correcciones de la intensidad de lluvia estimada se aplican y se verifican en dos casos de inundaciones acaecidas en zonas mediterráneas. El primer caso ocurrió en Albania del 21 al 23 de septiembre de 2002 y el segundo, conocido como caso Montserrat, ocurrió en Cataluña la noche del 9 al 10 se junio de 2000. Por otro lado se investiga la posibilidad de realizar calibraciones de ambos métodos directamente con datos de estaciones pluviométricas cuando lo común es calibrar con datos de radares meteorológicos. También se propone cambios en algunas de las correcciones ya que parecen mejorar los resultados y se propone una nueva corrección muy eficiente que utiliza las descargas eléctricas para determinar la zonas más convectivas y de mayor precipitación de los sistemas nubosos. / This Thesis work explores the precision of two methods to estimate rainfall called Auto-Estimator and CRR (Convective Rainfall Rate). They are obtained by using infrared and visible images from Meteosat. Both Algorithms within a set of correction factors are applied and verified in two severe flood cases that took place in Mediterranean regions. The first case has occurred in Albania from 21 to 23 September 2002 and the second, known as the Montserrat case, has occurred in Catalonia the night from the 9 to 10 of June 2000. On the other hand it is explored new methods to perform calibrations to both satellite algorithms using direct rain rates from rain gauges. These kinds of adjustments are usually done using rain rates from meteorological radars. In addition it is proposed changes on some correction factors that seem to improve the results on estimations and it is defined an efficient correction factor that employ electrical discharges to detect the most convective and rainy areas in cloud systems.
22

Entorno virtual para el aprendizaje y la evaluación automática en bases de datos

Soler i Masó, Josep 04 November 2010 (has links)
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB. / Teaching and automatic evaluation through Computer Based Assessment (CBA) requires of specialized software tools capable to correct different type of activities. In this work, we have analyzed the main topics of a database course (entity/ relationship diagrams, class diagrams, relational database schemas, normalization, relational algebra and SQL) and for each one of them we have reported the state of art on CBA tools. Afterwards, we have proposed a new CBA environment for teaching and learning database. This environment, denoted ACME-DB, is composed of different modules capable to automatically correct and evaluate exercises of main topics of a database course providing improvements over existing tools.
23

Essays on bayesian and classical econometrics with small samples

Jarocinski, Marek 15 June 2006 (has links)
Esta tesis se ocupa de los problemas de la estimación econométrica con muestras pequeñas, en los contextos del los VARs monetarios y de la investigación empírica del crecimiento. Primero, demuestra cómo mejorar el análisis con VAR estructural en presencia de muestra pequeña. El primer capítulo adapta la especificación con prior intercambiable (exchangeable prior) al contexto del VAR y obtiene nuevos resultados sobre la transmisión monetaria en nuevos miembros de la Unión Europea. El segundo capítulo propone un prior sobre las tasas de crecimiento iniciales de las variables modeladas. Este prior resulta en la corrección del sesgo clásico de la muestra pequeña en series temporales y reconcilia puntos de vista Bayesiano y clásico sobre la estimación de modelos de series temporales. El tercer capítulo estudia el efecto del error de medición de la renta nacional sobre resultados empíricos de crecimiento económico, y demuestra que los procedimientos econométricos robustos a incertidumbre acerca del modelo son muy sensibles al error de medición en los datos. / This thesis deals with the problems of econometric estimation with small samples, in the contexts of monetary VARs and growth empirics. First, it shows how to improve structural VAR analysis on short datasets. The first chapter adapts the exchangeable prior specification to the VAR context, and obtains new findings about monetary transmission in New Member States. The second chapter proposes a prior on initial growth rates of modeled variables, which tackles the Classical small-sample bias in time series, and reconciles Bayesian and Classical points of view on time series estimation. The third chapter studies the effect of measurement error in income data on growth empirics, and shows that econometric procedures which are robust to model uncertainty are very sensitive to measurement error of the plausible size and properties.
24

Propuesta de expresión matemática para la obtención del parámetro de resistencia al corte de un suelo arenoso en condición inalterada a partir de Ensayos de Penetración Estándar analizados a través de la metodología NAVFAC y Ensayos de Corte Directo de muestras remoldeadas en el departamento de Lima

Cuya Macavilca, Jorge Asael, Peña Ramos, Percy Arturo 20 September 2021 (has links)
La presente investigación está relacionada principalmente con la utilización del Ensayo de Penetración Estándar (SPT) y el Ensayo de Corte Directo, a través de dichos ensayos se obtuvo resultados que se usaron para formular una expresión de corrección. El estudio se realizó en suelos arenosos que poseen un porcentaje de finos menor al 12 % en los distritos limeños de Villa El Salvador y Ventanilla. Debido a la gran difusión y utilización del Ensayo de Corte Directo es de suma importancia que los resultados obtenidos sean lo más confiable posible, pues de ello depende el diseño de estructuras de cimentación, taludes, terraplenes, entre otros. Sin embargo, existe una gran dificultad para obtener muestras inalteradas de suelos arenosos, lo que induce a que se realice ensayos de Corte Directo remoldeando el espécimen a su densidad natural, contenido de humedad, compacidad y demás, esto podría generar una variación considerable en los resultados (parámetros de resistencia del suelo). En base a lo descrito anteriormente, se considera necesario buscar la manera de contrarrestar dicho problema, por ello se propone formular una expresión de corrección para el ángulo de fricción obtenido en los ensayos de Corte Directo de muestras remoldeadas. Para la formulación de dicha expresión, se empleó el programa Microsoft Excel para realizar una regresión lineal múltiple con las variables relacionadas al ángulo de fricción teniendo como resultado una expresión de corrección que mejora los ángulos de fricción del Ensayo de Corte Directo en un 63.69 %. / The present investigation is mainly related to the use of the Standard Penetration Test (SPT) and the Direct Shear Test, through these tests results were obtained that were used to formulate a correction expression. The study was carried out on sandly soils with a percentage of fine less than 12 % in the Lima districts of Villa El Salvador and Ventanilla. Due to the great diffusion and use of the Direct Shear Test it is of utmost importance that the results obtained are as reliable as possible, since it depends on the design of foundation structures, slopes, embankments, among others. However, there is great difficulty in obtaining undisturbed samples from sandy soils, which induces to Direct Shear tests being carried out, reshaping the specimen to its natural density, moisture content, compactness and others, this could generate a considerable variation in the results (soil resistance parameters). Based on the above, it is considered necessary to find a way to counteract this problem, for this reason it is proposed to formulate a correction expression for the friction angle obtained in the Direct Shear tests of remoulded samples. For the formulation of said expression, the Microsoft Excel program was used to perform a multiple linear regression with the variables related to the friction angle, resulting in a correction expression that improves the friction angles of the Direct Shear Test by 63.69 %. / Tesis
25

Corrección de errores en la clase de ELE : Un estudio de la actitud de los alumnos y los profesores hacia la corrección de los errores cometidos en la producción oral en el bachillerato sueco / Error correction in Spanish as a foreign language classes : A study based on Swedish High School pupils’ and teachers’ attitudes regarding error correction in oral communication

Herrán Stålenbring, Jessika January 2017 (has links)
The present study is an investigation of the correction of the errors made by the pupils when speaking Spanish as a foreign language (ELE) in Swedish High School, in order to make clear how the teacher works with the oral communicative approach, without forgetting the importance of correction. We study the attitudes of teachers and pupils towards correction. We also examinate what are the mistakes that teachers correct and why do they correct these errors while not others. Another question that we seek the answer to is when the teacher corrects the mistakes made by the students during the learning process of ELE. We also study in what situation the teacher corrects the grammatical errors made by the students when speaking. Our hypothesis is that the mistakes that the teacher corrects are the most common ones and those that make it impossible for the communication to progress. We believe that the attitude of the teachers toward the mistakes made by the students is positive, since they know that with the help of the mistakes made, they can discover where the students are in the development of their learning. On the other hand, we think that the attitude of the students is not positive, because they believe it’s embarrassing to make a mistake. Teachers correct mistakes carefully, because they place emphasis on communication, and the importance of expressing oneself correctly is in second place, and the teacher wants to prevent the pupils from being afraid to speak. In order to answer our questions reliably, we use two sources: questionnaires and interviews. 142 pupils and six teachers from three schools are surveyed in the region of Kronoberg and the region of Jönköping. We also interview five of these same teachers and thirteen pupils of the groups already mentioned. The result of the study shows that the teachers and the pupils have a positive attitude towards the correction of the errors made while speaking Spanish. It also shows that the teachers correct only the errors that make it impossible to understand what the pupil wants to say. Also, the research gets the result that the teachers don’t use the CEFR when they are about to correct the errors made by the pupils while they speak Spanish.  The teachers don’t correct all the errors made, but often react immediately and make corrections in front of the group.
26

Aplicaciones de los autómatas transductores finitos con pesos (WFST) en la corrección simbólica en interfaces persona-máquina

Navarro Cerdán, José Ramón 18 April 2016 (has links)
[EN] In this thesis a real application related to the string correction process from an OCR classifier in a form digitizing task is presented. These strings come from a classifier with a given error ratio that implies that some characters in the string have been potentially misclassified, producing erroneous words. This raises the need to introduce some kind of postprocess to improve the strings. The implementation of such postprocess takes into account all the available evidence in a given moment. In the case proposed here, these evidences are the charactersrecognized by the classifier with their posterior probabilities, the confusion matrix between symbols and the language model finally accepted. Each evidence is modelled independently by means of a WFST and then combined by means of the composition operation into a single integrated automata. From this automata, the path that maximizes the probability is selected. This path is the string, that belongs to the language model, that is the nearest string to the OCR hypothesis according to the confusion matrix. The final system offers two different results: on the one hand the corrected string, on the other hand the transformation cost produced during the string correction. Additionally, it is proposed a general method of error estimation using the input string transformation cost that establishes a threshold in terms of the cost and the proposed end-user parameter: the acceptable final error. This thesis presents a method for estimating adaptive rejection threshold estimation that allows for a certain percentage of error in a lot of strings from one language (sample) that presents several advantages. On the one hand, it is independent from transformation cost postprocessing distribution of such samples. On the other hand, it allows the user to set the threshold for a familiar and advantageous manner, as is setting the desired rate of sampling error. For this, first, and for a given language, a model that estimates the probability of error associated with the acceptation of postprocessed strings with a given transformation cost is defined. Then, the procedure that performs the rejection threshold estimation adaptively in order to achieve predefined rate error for a test batch is presented. In addition, an approach to obtain the above model is proposed when there are no real and supervised OCR hypothesis in the learning stage. The chapter is accompanied by experiments whose results demonstrate the utility of the proposed method. Next, linking in somehow with the search for an increased productivity in a possible string validation task, of previously strings rejected by the system through the foregoing error estimation method, a method of multimodal and interactive human-computer interaction that composes the above information with the prefix introduced by the user, while the validation process occurs, making use, for this, of WFST and the automata composition operation. The search for the most likely string for each new interaction offered by the user, in the composed automata, presented here, shows a clear increase in productivity by requiring fewer keystrokes in obtaining the correct string. Finally, a tolerant fault multimodal and interactive interface, using also WFST, is shown by making the composition of different information sources together with an error model related with the possible confusion caused due to the arrangement of keys on a keyboard. The application shown in this case is related to the introduction of a destination into a GPS device where is considered both the information related to the next destinations to a specific place, such as the information related to the entered prefix and errors that may occur due to the arrangement of keys on the input device considered. / [ES] En esta tesis se presenta inicialmente una aplicación real de corrección de cadenas procedentes de un clasificador OCR en una tarea de digitalización de formularios. Estas cadenas, proceden de un clasificador con cierta probabilidad de error, lo que implica la posibilidad de que alguno de los caracteres pertenecientes a una palabra sea erróneo, produciendo finalmente palabras incorrectas. Esto plantea la necesidad de introducir algún tipo de postproceso que mejore dichas cadenas. Para implementar dicho postproceso, se tienen en cuenta todas las evidencias disponibles en un momento dado. En el caso propuesto aquí serán los caracteres reconocidos por el propio clasificador con su probabilidad a posteriori, la matriz de confusión entre símbolos y el modelo de lenguaje finalmente aceptado. Cada una de estas evidencias se modela de manera independiente en forma de un WFST. Una vez modeladas se fusionan mediante la operación de composición de autómatas en un único autómata integrado. A partir de este autómata, se selecciona el camino que maximiza la probabilidad y que corresponde con la cadena perteneciente al lenguaje más cercana a la hipótesis OCR según la matriz de confusión entre símbolos. El sistema final ofrecerá dos resultados diferentes: por una parte la cadena corregida y por otra el coste de transformación de dicha corrección. Por otra parte, se plantea un método general de estimación del error frente a un coste de transformación de las cadenas de entrada que permite establecer un umbral dinámico en función de dicho coste y un parámetro propuesto por el usuario final: el error final asumible. Para ello en esta tesis se presenta un método adaptativo de estimación del umbral de rechazo que permite estimarlo para obtener un determinado porcentaje de error en un lote de cadenas de un lenguaje (muestra) que presenta diversas ventajas. Por un lado, es independiente de la distribución de los costes de transformación de dichas muestras. Por otro lado, permite al usuario establecer el umbral de una manera familiar y ventajosa, como es fijando la tasa de error deseada de la muestra. Para todo ello, en primer lugar, y para un lenguaje dado, se define un modelo que estima la probabilidad de error asociada a aceptar cadenas con un coste de transformación determinado. A continuación, se expone el procedimiento que lleva a cabo la estimación del umbral de rechazo de manera adaptativa con el objetivo de alcanzar la tasa de error predefinida para un lote de test. Además, se propone una aproximación para la obtención del modelo anterior cuando no se dispone de hipótesis OCR reales y supervisadas en la etapa de aprendizaje. Seguidamente y enlazando en cierta forma con la búsqueda de un incremento de productividad en una posible validación de las cadenas, previamente rechazadas por el sistema a través del método de estimación del error anteriormente expuesto, se presenta un método de interacción persona-máquina multimodal e interactivo que fusiona la información anterior junto al prefijo introducido, por el propio usuario, durante dicho proceso de validación, haciendo uso para ello de los WFST y la operación de composición de autómatas. Para finalizar, se muestra otra interfaz multimodal e interactiva tolerante a fallos, mediante la fusión de diferentes fuentes de información junto a un modelo de error relacionado con las posibles confusiones producidas debido a la disposición de las teclas de un teclado. Para ello, se hace uso también de WFST para su modelado. La aplicación mostrada en este caso está relacionada con la introducción de un destino en un dispositivo GPS y en ella se considera, tanto la información de los destinos próximos a un lugar concreto, como la información relativa al prefijo introducido y los errores que pueden aparecer debido a la propia disposición de las teclas en el dispositivo de entrada. / [CAT] En aquesta tesi es presenta inicialment una aplicació real de correcció de cadenes procedents d'un classificador OCR en una tasca de digitalització de formularis. Aquestes cadenes, procedeixen d'un classificador amb una determinada probabilitat d'error, la qual cosa implica la possibilitat de que algun dels caràcters que pertanyen a una paraula siga erroni, produint finalment paraules incorrectes. Això planteja la necessitat d'introduir algun tipus de postprocés que millore aquestes cadenes. Per implementar aquest postprocés, es tenen en compte totes les evidències disponibles en un moment donat. En el cas proposat ací, seran els caràcters reconeguts pel propi classificador amb la seua probabilitat a posteriori, la matriu de confusió entre símbols i el model de llenguatge finalment acceptat. Cadascuna d'aquestes evidències es modela de manera independent en forma d'un WFST. Una vegada modelades es fusionen mitjançant l'operació de composició d'autòmats en un únic autòmat integrat. A partir d'aquest autòmat, es selecciona el camí que fa màxima la probabilitat i que es correspon amb la cadena més propera a la hipòtesi OCR que pertany al llenguatge segons la matriu de confusió entre símbols. El sistema final oferirà dos resultats diferents: d'una banda la cadena corregida, i d'una altra, el cost de transformació d'aquesta correcció. D'una altra banda, es planteja un mètode general d'estimació de l'error front al cost de transformació de les cadenes d'entrada que permet establir un llindar dinàmic en funció d'aquest cost i un paràmetre proposat per l'usuari final: l'error final assumible. Per això en aquesta tesi es presenta un mètode adaptatiu d'estimació de rebuig, amb la finalitat d'obtindre un determinat percentatge d'error en un lot de cadenes d'un llenguatge (mostra) que presenta diversos avantatges. D'una banda és independent de la distribució dels costos de transformació de les mostres esmentades. D'altra banda, permet l'usuari establir el llindar d'una manera familiar i avantatjosa, com és fixant la tasa d'error desitjada per la mostra. Per tot això, en primer lloc, i donat un llenguatge, es defineix un model que estima la probabilitat d'error associada a acceptar cadenes amb un cost de transformació determinat. A continuació, s'exposa el procediment que du a terme l'estimació del llindar de rebuig de manera adaptativa amb l'objectiu de arribar a la tasa d'error predefinida per a un lot de test. A més a més, es proposa una aproximació per a obtindre el model anterior quant no es disposa d'hipòtesi OCR reals i supervisades a l'etapa d'aprenentatge. Seguidament, i enllaçant amb la recerca d'un increment en la productivitat en una possible validació de cadenes prèviament rebutjades pel sistema a través del mètode d'estimació de l'error anteriorment exposat, es presenta un mètode d'interacció persona-màquina multimodal i interactiu que fusiona la informació anterior, juntament amb el prefix introduït pel propi usuari durant l'esmentat procés de validació, fent ús dels WFST i l'operació de composició d'autòmats. La recerca de la cadena més probable, en cada nova interacció oferida per l'usuari ens mostra un clar increment de la productivitat, al requerir un nombre menor de pulsacions de teclat per obtindre la cadena correcta. Per finalitzar, es mostra una altra interfície multimodal i interactiva tolerant a errades, mitjançant la fusió de diferents fonts d'informació juntament a un model d'error relacionat amb les possibles confusions produïdes a causa de la disposició de les lletres d'un teclat. En aquest cas es fa ús també dels WFST en el seu modelat. L'aplicació mostrada en aquest cas està relacionada amb la introducció d'una destinació en un dispositiu GPS i en aquesta es considera tant la informació pròxima a un lloc concret, com la informació relativa al prefix introduït, junt als errors que poden aparèixer a causa de la pròpia dispos / Navarro Cerdán, JR. (2016). Aplicaciones de los autómatas transductores finitos con pesos (WFST) en la corrección simbólica en interfaces persona-máquina [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62688 / TESIS
27

Análisis estocástico de datos climáticos como predictor para la gestión anticipada de sequías en recursos hídricos

Hernández Bedolla, Joel 04 April 2022 (has links)
[ES] La gestión de los recursos hídricos es de vital importancia para la comprensión de las sequias a largo plazo. En la actualidad, se presentan problemas debido a la disponibilidad y manejo del recurso hídrico. Además, el cambio climático afecta de manera negativa las variables climáticas y la disponibilidad del recurso hídrico. El tomar decisiones en base a información confiable y precisa conlleva un arduo trabajo y es necesario contar con diferentes herramientas que permitan llegar a la gestión de los recursos hídricos. La modelización de las variables climáticas es parte fundamental para determinar la disponibilidad del recurso hídrico. Las más importantes son la precipitación y temperatura o precipitación y evapotranspiración. Los modelos estocásticos se encuentran en un proceso de evolución que permiten reducir la escala de análisis. En esta investigación se ha abordado la modelación de variables climáticas con detalle diario. Se ha planteado una metodología para la generación de series sintéticas de precipitación y temperatura mediante modelización estocástica continua multivariada a escala diaria. Esta metodología también incorpora la corrección del sesgo para precipitación y temperatura de los escenarios de cambio climático con detalle diario. Los resultados de la presente tesis indican que los modelos estocásticos multivariados pueden representar las condiciones espaciales y temporales de las diferentes variables climáticas (precipitación y temperatura). Además, se plantea una metodología para la determinación de la evapotranspiración en función de los datos climáticos disponibles. Por otro lado, los modelos estocásticos multivariados permiten la corrección del sesgo con resultados diarios, mensuales y anuales más realistas que otros métodos de corrección de sesgo. Estos modelos climáticos son una herramienta para pronosticar eventos o escenarios futuros que permiten tomar mejores decisiones de manera anticipada. Estos modelos se programaron en el entorno de MatLab con el objetivo de aplicarlos a diferentes zonas de estudio de manera eficiente y automatizada. Los análisis realizados en la presente tesis se realizaron para la cuenca del Júcar con un buen desempeño para las condiciones de la cuenca. / [CA] La gestió dels recursos hídrics és de vital importància per a la comprensió de les sequeres a llarg termini. En l'actualitat, es presenten problemes a causa de la disponibilitat i maneig del recurs hídric. A més, el canvi climàtic afecta de manera negativa les variables climàtiques i la disponibilitat del recurs hídric. El prendre decisions sobre la base informació de confiança i precisa comporta un ardu treball i és necessari comptar amb diferents eines que permeten arribar a la gestió dels recursos hídrics. La modelització de les variables climàtiques és part fonamental per a determinar la disponibilitat del recurs hídric. Les més importants són la precipitació i temperatura o precipitació i evapotranspiració. Els models estocàstics es troben en un procés d'evolució que permet la incorporació de més detalls reduint l'escala d'anàlisi. En aquesta investigació s'ha abordat el modelatge de variables climàtiques amb detall diari. S'ha plantejat una metodologia per a la generació de sèries sintètiques de precipitació i temperatura mitjançant modelització estocàstica contínua multivariada a escala diària. Aquesta metodologia també incorpora la correcció del biaix per a precipitació i temperatura dels escenaris de canvi climàtic amb detall diari. Els resultats de la present tesi indiquen que els models estocàstics multivariats poden representar les condicions espacials i temporals de les diferents variables climàtiques (precipitació i temperatura). A més es planteja una metodologia per a la determinació de l'evapotranspiració en funció de les dades climàtiques disponibles. D'altra banda, els models estocàstics multivariats permeten la correcció del biaix amb resultats diaris, mensuals i anuals més realistes que altres mètodes de correcció de biaix. Aquests models climàtics són una eina per a pronosticar esdeveniments o escenaris futurs que permeten prendre millors decisions de manera anticipada. Aquests models es van programar a l'entorn de Matlab amb l'objectiu d'aplicar-los a diferents zones d'estudi de manera eficient i automatitzada. Les anàlisis realitzades en la present tesi es van realitzar per a la conca del Xúquer amb un bon acompliment per a les condicions de la conca. / [EN] Management of the water resources is important for understanding long-term droughts. Currently, there are problems due to the availability and management of water resources. Furthermore, climate change negatively affecting climate variables and the availability of water resources. Making decisions based on reliable and accurate information involves hard work and it is necessary to have different tools to achieve the management of water resources. The modeling of the climatic variables is a fundamental part to determine the availability of the water resource. The most important are precipitation and temperature or precipitation and evapotranspiration. Stochastic models are in a process of evolution that allows the incorporation of more details by reducing the scale of analysis. In this research, the modeling of climatic variables has been approached in daily detail. A methodology has been proposed for the generation of synthetic series of precipitation and temperature by means of multivariate continuous stochastic modeling on a daily scale. This methodology also incorporates the bias correction for precipitation and temperature of the climate change scenarios with daily detail. The results of this thesis indicate that multivariate stochastic models can represent the spatial and temporal conditions of the different climatic variables (precipitation and temperature). In addition, a methodology is proposed for the determination of evapotranspiration based on the available climatic data. On the other hand, multivariate stochastic models allow bias correction with more realistic daily, monthly and annual results than other bias correction methods. These climate models are a tool to forecast future events or scenarios that allow better decisions to be made in advance. These models were programmed in the MatLab software with the aim of applying them to different study areas in an efficient and automatically. The work in this thesis was carried out for the Júcar basin with a good performance for the conditions of the basin / Hernández Bedolla, J. (2022). Análisis estocástico de datos climáticos como predictor para la gestión anticipada de sequías en recursos hídricos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182095 / TESIS

Page generated in 0.049 seconds