• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 3
  • 2
  • Tagged with
  • 36
  • 36
  • 15
  • 15
  • 15
  • 15
  • 15
  • 12
  • 10
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Transformación digital a través de proyectos innovadores en analytics aplicado a recursos humanos

Cachis Gonzales, Carla Natalia 20 March 2024 (has links)
El propósito del presente informe es exponer los proyectos más significativos en los que Carla Natalia Cachis Gonzales ha participado y liderado desde su graduación como Bachiller en Ingeniería Informática en diciembre de 2019. Durante las prácticas preprofesionales, tuvo la oportunidad de participar en la implementación de un sistema informático y desarrollar un dashboard en Power BI. Esta experiencia permitió descubrir la pasión por el mundo de los datos, especialmente en el ámbito de la Inteligencia Empresarial y Análisis de Datos. En su trayectoria laboral, ha tenido la oportunidad de trabajar en dos destacadas empresas. En primer lugar, desde noviembre de 2019 hasta abril de 2021, formó parte del equipo de talento de Intercorp Management como Analista de People Analytics. Posteriormente, desde abril de 2021 hasta la actualidad, se desempeña como Especialista de People Analytics en Clínica Internacional, compañía del Grupo empresarial BRECA. En ambas organizaciones, ha sido parte del área de People Analytics, teniendo la responsabilidad de liderar y participar en proyectos relacionados con la gestión y el análisis de los datos de los empleados, tales como: headcount, headcost, desempeño, compensaciones, capacidad instalada, rotación, entre otros. El objetivo como miembro del equipo de People Analytics es mejorar la eficiencia en la toma de decisiones de la empresa con respecto a los recursos humanos. En el informe se presentarán los objetivos, actividades y logros de cuatro proyectos que ha liderado o desarrollado en los primeros tres años de experiencia laboral. El primero es la propuesta y desarrollo de un programa para realizar Web Scrapping a perfiles de LinkedIn para la búsqueda de talento proactivo en Intercorp Management, este algoritmo optimizó significativamente la búsqueda de información de los procesos de reclutamiento. El segundo es la creación de un sitio web para el programa InGenia Intercorp, para lo cual se utilizó una herramienta No Code y se conectó a Google Analytics para realizar Web Analytics sobre la data del tráfico de la web. Adicionalmente, se presentan dos proyectos que se desarrollaron en Clínica Internacional. En primer lugar, lugar, la propuesta y desarrollo a completitud de un proyecto de Network Analytics, el cual permitió identificar patrones de comunicación y colaboración entre los empleados de la organización. En segundo lugar, se tuvo el liderazgo de un proyecto de implementación de SAP Success Factors, que involucró la identificación de requerimientos, la migración de datos y la capacitación de los empleados para el uso de la nueva plataforma de gestión de recursos humanos. Como resultado de las contribuciones en Clínica internacional, se galardonó en el programa de reconocimiento “Latidos de Oro 2022” que premió a 12 trabajadores que dieron la milla extra, quedando premiada entre más de 3700 trabajadores de la compañía. Finalmente, los proyectos mencionados serán detallados en las siguientes páginas, siendo cada uno de ellos un desafío emocionante y que permitió aprender y crecer profesionalmente en el campo de People Analytics.
12

Entwicklung und anwendung eines verfahrens zur bestimmung des dynamischen verhaltens carpaler vibrissen von Ratten (Rattus norvegicus)

Fliegner, Caroline 09 March 2017 (has links)
Viele S augetiere nutzen Vibrissen als taktile Sinnesorgane, um sich in ihrer Umwelt zurechtzu nden. Besonders Nagetiere, die ihre Vordergliedma en neben dem Laufen auch zum Greifen nutzen, weisen h au g nahe des Handgelenks carpale Vibrissen auf. Uber diese ist bisher wenig bekannt. Damit technische Systeme mit taktilen Sensoren nach dem Vorbild carpaler Vibrissen ausgestattet werden k onnen, m ussen die Eigenschaften letzterer bekannt sein. Im Rahmen dieser Arbeit wird ein Beitrag zur dynamischen Charakterisierung der Vibrissen geleistet. Es werden zun achst ein analytisches Modell und ein Finite-Elemente-Modell zur Beschreibung der Vibrissenschwingung entwickelt. Sie dienen der Uberpr ufung der Messwerte und der Parameteridenti kation. Eine Modalanalyse konnte erfolgreich durchgef uhrt und die Ergebnisse mit den Messdaten verglichen werden. Anschlie end werden verschiedene Verfahren getestet und hinsichtlich ihrer Eignung bewertet, die dynamischen Eigenschaften carpaler und mystacialer Vibrissen zu bestimmen. Die Vibrissenauslenkung wird optisch mit einer Hochgeschwindigkeitskamera bzw. mittels Makrofotogra e dokumentiert. Die Auswertung der Daten erfolgt in Matlab. Ergebnisse lassen sich zum einen mittels einer einmaligen Auslenkung der Vibrisse mit einem Festk orper erzielen: Aus der freien, ged ampften Schwingung des Haars werden die Eigenfrequenz und der D ampfungsgrad ermittelt. Zum anderen kann mit der Anregung durch einen Schwingerreger der Amplitudengang bestimmt werden. / Many mammals use whiskers to acquire information about their environment. Especially those rodents that use their forelimps not only for walking but also for climbing and handling food possess tactile hair near their wrists. Little is knwon about these so-called carpal vibrissae. In order to successfully implement vibrissa-like sensors in engineering applications, it is necessary to characterize the biological model. Within this thesis, an analytical and a nite element model are being developed in order to describe the oscillation of the vibrissa. Furtheron, they are to be used as reference for experimental data. A modal analysis is successfully implemented and the results were then compared to experimental data. In order to derive the ideal experimental setup for the characterization of carpal vibrissae, several approaches to the excitation of a single vibrissa are tested and evaluated. All experiments are documented optically, using either a high-speed camera or macro photography. Analysis of the data is conducted in Matlab. Two setups show promising performance: A one-time de ection of the vibrissa resulting in a free damped oscillation yields good results for both eigenfrequency and damping ratio while an excitation of the vibrissa via a vibration system leads to the amplitude response of the hair. / Tesis
13

Determinantes de las migraciones internacionales: Un modelo de gravedad para el caso peruano 2000-2020

Coronel Gonzales, Julio César 13 June 2024 (has links)
El fin del presente documento es explicar cuáles son los determinantes de las migraciones internacionales para el caso peruano. Para ello, el texto se subdivide en dos secciones principales. En la primera sección, se presentarán las principales teorías relacionadas a la migración internacional como el modelo teórico de migración de Borjas, el modelo de gravedad y las teorías complementarias sobre la migración. Así, se mostrarán las principales relaciones teóricas entre variables como el salario, el empleo, la cultura y la geografía con respecto al número de migrantes que atrae un país. En la siguiente sección, se presentará la evidencia internacional y nacional con respecto a los determinantes de la migración. Los documentos internacionales coinciden al encontrar una relación positiva entre la migración y el salario, la cultura, la frontera y una red de migrantes sólida. Mientras que se encuentra una relación negativa con la distancia. Sin embargo, no se encuentra consenso al relacionar la migración con el desempleo. Por otro lado, la literatura nacional, al analizar la migración interna, muestra que existe un mayor número de migrantes en aquellos lugares con mayor salario medio, menor desempleo y mayor acceso a servicios. Finalmente, el método de estimación elegido es un modelo de gravedad unilateral estimado con un panel de datos para el periodo 2000-2020. Las opciones para estimar los parámetros son el método pool, el método de efectos fijos y el método de efectos aleatorios.
14

Modelo de supervivencia de larga duración con riesgos proporcionales y estimación del riesgo base vía splines: modelamiento de abandono de seguros

Mattos Galarza, Hector 12 January 2021 (has links)
Los modelos de supervivencia, aquellos que tratan de describir el tiempo a la ocurrencia de uno o más eventos, han demostrado tener gran versatilidad para poder modelar distintos tipos de eventos y un alcance mayor al que inicialmente se propuso. Su aplicación varía desde el área de la medicina hasta usos en actividades financieras como análisis de riesgos de activos, entre otros. Este trabajo tiene como motivación el análisis del tiempo de permanencia de un cliente con contrato de póliza de seguros. En esta aplicación, solo una fracción de los clientes son susceptibles a la terminación del contrato y, en este sentido, se requiere que el modelo cuente con la flexibilidad de asumir que no todos los clientes son susceptibles al evento de interés. En este trabajo, se propone un modelo de larga duración asumiendo un modelo de riesgos proporcionales para los clientes susceptibles de abandono y donde la función de riesgo basal de este último se modela vía funciones de splines monótonas. Este trabajo empieza con la definición del modelo, el proceso de estimación de parámetros, escenarios de simulación donde se evalúa el desempeño del proceso de estimación e inferencia y finalmente una aplicación para estudiar los factores asociados con el abandono de clientes en una compañía de seguros en el Perú. / Survival models, those that are focused on trying to describe the time before the ocurrence of one or more events, have demonstrated great versatility in their capacity to model various types of events and a further reach than initially proposed. Its application encompasses from medical trials to uses in financial activities like assets risk management, among others. This work focuses in the analysis of the time of a customer until their decision of termination of an insurance policy. In this application, only a fraction of the population are prone to terminate their contract and, in this sense, it is needed that the model have a certain degree of flexibility of assuming that not all the clients are susceptible to this event. A long-term proportional hazard model is proposed in this work with base risk function modeled via monotone splines. This work starts with the model definition, the parameters estimation process, simulation scenarios where the estimation and inference process performance is evaluated and finally an application to study the associated factors with the churn process for an insurance company in Perú.
15

Aplicación de técnicas de Data Analytics: Clustering y Regresión Lineal Múltiple, para la segmentación de la oferta y proyección de ciclos inmobiliarios en el mercado de oficinas prime

Jhon Rios, Luis Priamo 13 February 2023 (has links)
El presente trabajo de investigación desarrolla la aplicación de las técnicas clustering (clúster) y regresión lineal múltiple, para la segmentación de la oferta y proyección de ciclos inmobiliarios en el mercado de oficinas prime. Estas herramientas corresponden al ámbito de data analytics (análisis de datos), el cual consiste en el procesamiento y ejecución de análisis estadísticos en conjuntos de datos de entrada, los cuales para el caso de esta investigación, corresponden a información de indicadores del mercado inmobiliario de oficinas en los últimos 10 años. En primer lugar, la aplicación de la técnica descriptiva de clúster, permitirá segmentar el mercado inmobiliario de oficinas, agrupando las diferentes edificaciones según sus características afines, generando una segmentación que permita profundizar un mejor entendimiento de la oferta existente y de esta manera optimizar las estrategias de comercialización utilizadas por los agentes del mercado. En segundo lugar, utilizando la información histórica de los principales indicadores inmobiliarios, se plantea la construcción de un modelo predictivo de regresión múltiple que permitirá proyectar el comportamiento de la oferta y demanda del mercado, estimando de esta manera la fase del ciclo inmobiliario que atraviesa el mercado: expansión, sobreoferta, re1cesión o recuperación. Para desarrollar el presente trabajo, se realizó la revisión bibliográfica de las principales investigaciones que aplican modelos de clúster y regresión lineal múltiple, considerando también que el contenido puede resultar útil para la toma de decisiones de inversionistas, empresas desarrolladoras y analistas comerciales del sector inmobiliario, puesto que les permitirá deslumbrar tendencias en el mercado y les servirá como ayuda para determinar cuáles son los momentos adecuados para invertir en un nuevo proyecto inmobiliario y/o comercializar un contrato de arrendamiento de oficinas.
16

Use of multivariate statistical methods for the analysis of metabolomic data

Hervás Marín, David 12 November 2019 (has links)
[ES] En las últimas décadas los avances tecnológicos han tenido como consecuencia la generación de una creciente cantidad de datos en el campo de la biología y la biomedicina. A día de hoy, las así llamadas tecnologías "ómicas", como la genómica, epigenómica, transcriptómica o metabolómica entre otras, producen bases de datos con cientos, miles o incluso millones de variables. El análisis de datos ómicos presenta una serie de complejidades tanto metodoló-gicas como computacionales que han llevado a una revolución en el desarrollo de nuevos métodos estadísticos específicamente diseñados para tratar con este tipo de datos. A estas complejidades metodológicas hay que añadir que, en la mayor parte de los casos, las restricciones logísticas y/o económicas de los proyectos de investigación suelen conllevar que los tamaños muestrales en estas bases de datos con tantas variables sean muy bajos, lo cual no hace sino empeorar las dificultades de análisis, ya que se tienen muchísimas más variables que observaciones. Entre las técnicas desarrolladas para tratar con este tipo de datos podemos encontrar algunas basadas en la penalización de los coeficientes, como lasso o elastic net, otras basadas en técnicas de proyección sobre estructuras latentes como PCA o PLS y otras basadas en árboles o combinaciones de árboles como random forest. Todas estas técnicas funcionan muy bien sobre distintos datos ómicos presentados en forma de matriz (IxJ). Sin embargo, en ocasiones los datos ómicos pueden estar expandidos, por ejemplo, al tomar medidas repetidas en el tiempo sobre los mismos individuos, encontrándonos con estructuras de datos que ya no son matrices, sino arrays tridimensionales o three-way (IxJxK). En estos casos, la mayoría de las técnicas citadas pierden parte de su aplicabilidad, quedando muy pocas opciones viables para el análisis de este tipo de estructuras de datos. Una de las técnicas que sí es útil para el análisis de estructuras three-way es N-PLS, que permite ajustar modelos predictivos razonablemente precisos, así como interpretarlos mediante distintos gráficos. Sin embargo, relacionado con el problema de la escasez de tamaño muestral relativa al desorbitado número de variables, aparece la necesidad de realizar una selección de variables relacionadas con la variable respuesta. Esto es especialmente cierto en el ámbito de la biología y la biomedicina, ya que no solo se quiere poder predecir lo que va a suceder, sino entender por qué sucede, qué variables están implicadas y, a poder ser, no tener que volver a recoger los cientos de miles de variables para realizar una nueva predicción, sino utilizar unas cuantas, las más importantes, para poder diseñar kits predictivos coste/efectivos de utilidad real. Por ello, el objetivo principal de esta tesis es mejorar las técnicas existentes para el análisis de datos ómicos, específicamente las encaminadas a analizar datos three-way, incorporando la capacidad de selección de variables, mejorando la capacidad predictiva y mejorando la interpretabilidad de los resultados obtenidos. Todo ello se implementará además en un paquete de R completamente documentado, que incluirá todas las funciones necesarias para llevar a cabo análisis completos de datos three-way. El trabajo incluido en esta tesis por tanto, consta de una primera parte teórico-conceptual de desarrollo de la idea del algoritmo, así como su puesta a punto, validación y comprobación de su eficacia; de una segunda parte empírico-práctica de comparación de los resultados del algoritmo con otras metodologías de selección de variables existentes, y de una parte adicional de programación y desarrollo de software en la que se presenta todo el desarrollo del paquete de R, su funcionalidad y capacidades de análisis. El desarrollo y validación de la técnica, así como la publicación del paquete de R, ha permitido ampliar las opciones actuales para el análisis / [CA] En les últimes dècades els avançaments tecnològics han tingut com a conseqüència la generació d'una creixent quantitat de dades en el camp de la biologia i la biomedicina. A dia d'avui, les anomenades tecnologies "òmiques", com la genòmica, epigenòmica, transcriptòmica o metabolòmica entre altres, produeixen bases de dades amb centenars, milers o fins i tot milions de variables. L'anàlisi de dades 'òmiques' presenta una sèrie de complexitats tant metodolò-giques com computacionals que han portat a una revolució en el desenvolupament de nous mètodes estadístics específicament dissenyats per a tractar amb aquest tipus de dades. A aquestes complexitats metodològiques cal afegir que, en la major part dels casos, les restriccions logístiques i / o econòmiques dels projectes de recerca solen comportar que les magnituts de les mostres en aquestes bases de dades amb tantes variables siguen molt baixes, el que no fa sinó empitjorar les dificultats d'anàlisi, ja que es tenen moltíssimes més variables que observacions Entre les tècniques desenvolupades per a tractar amb aquest tipus de dades podem trobar algunes basades en la penalització dels coeficients, com lasso o elastic net, altres basades en tècniques de projecció sobre estructures latents com PCA o PLS i altres basades en arbres o combinacions d'arbres com random forest. Totes aquestes tècniques funcionen molt bé sobre diferents dades 'òmiques' presentats en forma de matriu (IxJ), però, en ocasions les dades òmiques poden estar expandits, per exemple, cuan ni ha mesures repetides en el temps sobre els mateixos individus, trobant-se amb estructures de dades que ja no són matrius, sinó arrays tridimensionals o three-way (IxJxK). En aquestos casos, la majoria de les tècniques mencionades perden tota o bona part de la seua aplicabilitat, quedant molt poques opcions viables per a l'anàlisi d'aquest tipus d'estructures de dades. Una de les tècniques que sí que és útil per a l'anàlisi d'estructures three-way es N-PLS, que permet ajustar models predictius raonablement precisos, així com interpretar-los mitjançant diferents gràfics. No obstant això, relacionat amb el problema de l'escassetat de mostres relativa al desorbitat nombre de variables, apareix la necessitat de realitzar una selecció de variables relacionades amb la variable resposta. Això és especialment cert en l'àmbit de la biologia i la biomedicina, ja que no només es vol poder predir el que va a succeir, sinó entendre per què passa, quines variables estan implicades i, si pot ser, no haver de tornar a recollir els centenars de milers de variables per realitzar una nova predicció, sinó utilitzar unes quantes, les més importants, per poder dissenyar kits predictius cost / efectius d'utilitat real. Per això, l'objectiu principal d'aquesta tesi és millorar les tècniques existents per a l'anàlisi de dades òmiques, específicament les encaminades a analitzar dades three-way, incorporant la capacitat de selecció de variables, millorant la capacitat predictiva i millorant la interpretabilitat dels resultats obtinguts. Tot això s'implementarà a més en un paquet de R completament documentat, que inclourà totes les funcions necessàries per a dur a terme anàlisis completes de dades three-way. El treball inclòs en aquesta tesi per tant, consta d'una primera part teorica-conceptual de desenvolupament de la idea de l'algoritme, així com la seua posada a punt, validació i comprovació de la seua eficàcia, d'una segona part empíric-pràctica de comparació dels resultats de l'algoritme amb altres metodologies de selecció de variables existents i d'una part adicional de programació i desenvolupament de programació en la qual es presenta tot el desenvolupament del paquet de R, la seua funcionalitat i capacitats d'anàlisi. El desenvolupament i validació de la tècnica, així com la publicació del paquet de R, ha permès ampliar les opcions actuals per a l'anàlis / [EN] In the last decades, advances in technology have enabled the gathering of an increasingly amount of data in the field of biology and biomedicine. The so called "-omics" technologies such as genomics, epigenomics, transcriptomics or metabolomics, among others, produce hundreds, thousands or even millions of variables per data set. The analysis of 'omic' data presents different complexities that can be methodological and computational. This has driven a revolution in the development of new statistical methods specifically designed for dealing with these type of data. To this methodological complexities one must add the logistic and economic restrictions usually present in scientific research projects that lead to small sample sizes paired to these wide data sets. This makes the analyses even harder, since there is a problem in having many more variables than observations. Among the methods developed to deal with these type of data there are some based on the penalization of the coefficients, such as lasso or elastic net, others based on projection techniques, such as PCA or PLS, and others based in regression or classification trees and ensemble methods such as random forest. All these techniques work fine when dealing with different 'omic' data in matrix format (IxJ), but sometimes, these IxJ data sets can be expanded by taking, for example, repeated measurements at different time points for each individual, thus having IxJxK data sets that raise more methodological complications to the analyses. These data sets are called three-way data. In this cases, the majority of the cited techniques lose all or a good part of their applicability, leaving very few viable options for the analysis of this type of data structures. One useful tool for analyzing three-way data, when some Y data structure is to be predicted, is N-PLS. N-PLS reduces the inclusion of noise in the models and obtains more robust parameters when compared to PLS while, at the same time, producing easy-to-understand plots. Related to the problem of small sample sizes and exorbitant variable numbers, comes the issue of variable selection. Variable selection is essential for facilitating biological interpretation of the results when analyzing 'omic' data sets. Often, the aim of the study is not only predicting the outcome, but also understanding why it is happening and also what variables are involved. It is also of interest being able to perform new predictions without having to collect all the variables again. Because all of this, the main goal of this thesis is to improve the existing methods for 'omic' data analysis, specifically those for dealing with three-way data, incorporating the ability of variable selection, improving predictive capacity and interpretability of results. All this will be implemented in a fully documented R package, that will include all the necessary functions for performing complete analyses of three-way data. The work included in this thesis consists in a first theoretical-conceptual part where the idea and development of the algorithm takes place, as well as its tuning, validation and assessment of its performance. Then, a second empirical-practical part comes where the algorithm is compared to other variable selection methodologies. Finally, an additional programming and software development part is presented where all the R package development takes place, and its functionality and capabilities are exposed. The development and validation of the technique, as well as the publication of the R package, has opened many future research lines. / Hervás Marín, D. (2019). Use of multivariate statistical methods for the analysis of metabolomic data [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130847
17

Aplicación de herramientas de analítica y optimización matemática para mejorar la cobertura de los canales digitales en una entidad bancaria

Gomez Fabian, Brunnella Alejandra, Blas Corrales, Walter Leonardo 01 July 2022 (has links)
Actualmente, las organizaciones están adaptando nuevas herramientas y metodologías para poder optimizar sus procesos. Las entidades bancarias no son ajenas a la implementación de diversas herramientas debido a la naturaleza cambiante del negocio. Entre dichas herramientas, se encuentran la Optimización Matemática y Data Analytics. El objetivo de la presente investigación es presentar los beneficios obtenidos para una entidad bancaria a partir de la aplicación de las metodologías propuestas. Por un lado, se tiene como finalidad que valide la hipótesis que indica que la aplicación de Optimización Matemática permite a las entidades bancarias reducir sus costos y optimizar el uso de recursos con el propósito de incrementar la productividad de sus procesos. Por otro lado, se busca evidenciar que, mediante la implementación de modelos de Data Analytics, se puede incrementar la capacidad de explicar el comportamiento de varios aspectos que están relacionados con el negocio. En el presente trabajo, además del marco teórico, se están abarcado casos de aplicación de Optimización Matemática para determinar la asignación optima de trabajadores, de límite de crédito y de ventas cruzadas, donde se evidencia que esta herramienta permite distribuir eficientemente los recursos de una entidad bancaria con la finalidad de maximizar o minimizar una función de interés dentro del negocio. Asimismo, se presenta un conjunto de casos de estudio de Data Analytics con los cuales se tiene como objetivo validar los beneficios de dichas herramientas mediante diversas aplicaciones de modelos predictivos e identificación de clústeres. En síntesis, se puede evidenciar, en el presente trabajo, que la inclusión de metodologías como Optimización Matemática y Data Analytics dentro de los procesos de una entidad bancaria permite que se logre registrar mayores beneficios, tanto a nivel operativo como económico.
18

Implementación de una aplicación para el análisis y visualización de eventos en español usando extracción automática de ontologías

Valeriano Loli, Enrique 12 February 2019 (has links)
La globalización y la aparición de diferentes tecnologías como las redes sociales han ocasionado que la información relacionada a noticias y eventos se propague de una manera más rápida. Ahora las empresas deben estar siempre pendientes a los datos generados para así ser más eficaces en su relación con ellos. Sin embargo, esta es una tarea difícil debido a la gran cantidad de datos y a la falta de procesos automáticos para analizar estos, sobre todo en el idioma español. Como objetivo de este proyecto, se busca brindar una aplicación la cual de manera automática pueda realizar análisis de datos de eventos en español y permitan visualizar los aspectos más importantes relacionados a estos datos. Para esto se implementarán algoritmos de Análisis de Formal de Conceptos y Análisis de Patrones Léxico-Sintácticos. Además, se usarán ontologías para poder estructurar la información recolectada a partir de los algoritmos. Se concluye que los algoritmos desarrollados permiten obtener las entidades y relaciones más relevantes encontradas en los datos con porcentajes relativamente altos de precisión y exhaustividad sobre todo usando datos limpios. Además, es posible mostrar la información recolectada de manera adecuada debido a la flexibilidad de las ontologías.
19

Statistical methods for time course microarray data

Nueda Roldán, María José 02 September 2009 (has links)
La tesis aborda el análisis estadístico de series simples y múltiples de experimentos de "Time Course Microarray" (TCM). El trabajo se centra en el desarrollo, aplicación y evaluación de métodos estadísticos específicos que consideran la problemática de este tipo de datos, tanto desde el punto de vista de selección de genes como del análisis funcional. Las técnicas desarrolladas se comparan con otros métodos del estado del arte actual evaluando las diferentes metodologías en términos de eficiencia y significado biológico de los resultados. En la tesis se incluye la descripción del funcionamiento de la tecnología de "microarrays" así como una revisión crítica de los métodos estadísticos aplicados a este tipo de datos mostrando los inconvenientes que surgen al aplicar métodos generales a series temporales de "microarrays" y justificando la necesidad de desarrollar nuevas técnicas para el análisis de TCM. La primera técnica desarrollada es maSigPro ("microarray Significant Profile") que usa análisis de regresión lineal para modelar la expresión génica y lleva a cabo una estrategia en dos pasos para seleccionar los genes diferencialmente expresados. La aplicación de la técnica multivariantes ASCA (ANOVA "Simultaneous Component Analysis") a datos de TCM da como resultado el método ASCA-genes que combina la exploración multivariante de datos con un procedimiento de selección para identificación de genes con cambios relevantes. El método ASCA es también usado para crear una estrategia de filtrado de datos de gran utilidad para eliminar el alto nivel de ruido estructural de los datos de microarrays. Por último, se desarrollan métodos estadísticos para una evaluación directa e integrada de las alteraciones que pueden sufrir las funciones génicas en TCM. Para este propósito, se ha adaptado las técnicas maSigPro, ASCA y PCA incorporándoles información funcional obteniendo las metodologías maSigFun, PCA-maSigFun y ASCA-functional. / Nueda Roldán, MJ. (2009). Statistical methods for time course microarray data [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6061
20

Modelización multivariante de los Procesos de Enseñanza - Aprendizaje basados en Competencias en Educación Superior

Conchado Peiró, Andrea 14 October 2011 (has links)
La importancia de las competencias en el ámbito universitario se ha incrementado de forma muy significativa en los últimos años. Este cambio de enfoque en los estudios universitarios implica la necesidad de una transformación metodológica, no sólo en cuanto a la definición y planificación de las materias sino en lo que se refiere a la selección de nuevas metodologías docentes. La responsabilidad de la ejecución en la práctica de dichos planes recae en última instancia sobre el profesorado universitario quienes requieren el desarrollo de investigaciones orientadas al estudio de los procesos de enseñanza - aprendizaje de competencias. ..El objetivo de este trabajo es modelizar estos procesos de enseñanza - aprendizaje de competencias en Educación Superior, considerando los distintos factores del entorno académico y personal de los estudiantes que potencialmente pueden influir en los resultados del aprendizaje obtenidos. Para ello se realiza en primer lugar una revisión sobre los antecedentes relacionados con dicha cuestión.Seguidamente se evalúan las relaciones entre factores relativos al contexto de los estudiantes y las competencias que adquirieron en la Universidad. Del mismo modo se estudia cómo la presencia de determinadas variables modificadoras del efecto, como el área de estudio, influyen en las relaciones entre variables mediante la introducción de relaciones de interacción y confusión. Una vez examinadas las relaciones entre los factores del contexto de los estudiantes, se validan los instrumentos de medida empleados para cuantificar los Métodos de enseñanza - aprendizaje y las Competencias adquiridas en la Universidad, cuyo ajuste se considera excelente o muy bueno en todos los casos. A partir de ambos modelos de medida se propone en base a la teoría y análisis exploratorios previos, un modelo causal de relaciones estructurales. / Conchado Peiró, A. (2011). Modelización multivariante de los Procesos de Enseñanza - Aprendizaje basados en Competencias en Educación Superior [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12099

Page generated in 0.0698 seconds