• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 51
  • 19
  • 15
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 184
  • 90
  • 40
  • 34
  • 30
  • 28
  • 22
  • 20
  • 18
  • 17
  • 17
  • 17
  • 16
  • 16
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Noise assisted effects in physics and biophysics studied by the optical trapping technique

Martínez Sánchez, Ignacio A. 25 April 2014 (has links)
Almost two centuries after the first observations of Robert Brown, the study of systems ruled by noise has become a significant part of modern physics and other so diverse situations, such as the stock market, personal networks, ecosystems, etc. In particular, we focus on the so-called small systems, where the thermal fluctuations determine the dynamics and energetics of the system. Examples of this scale are biopolymers, such as DNA or RNA, molecular motors, living cells or colloidal particles in suspension. As the energy exchanges between a small system and its environment are of the order of magnitude of thermal fluctuations, apparent violations of the classical laws of thermodynamics appear. We have studied the role of noise in biological and physical systems. As the main experimental tool we have used the optical tweezers technique, which allows one to exert forces in the pN range, as well as to spatially confine the studied objects improving the accuracy of the experiments. A highly focused laser beam creates a time and space controllable optical potential profile. This permitted to investigate noise assisted effects in different scenarios. Two biological systems were considered, namely, single DNA molecule and single bacterium. We showed that the motion of the stretched DNA molecule in the entropic regime (forces below 5 pN) includes an additional noisy component whose spectral power is proportional to 1=f . The presence of this noise may be related with changes of the probability of folding and unfolding events when the DNA strand is extended. On the other hand, we studied the trajectory of single bacteria, whose motion includes inherently noisy components. Using a novel technique with only one optical trap we measured the dynamics of a trapped single bacterium S. enterica. We found that the trajectory within a single trap can reveal the different behavior of the samples. In addition to the validation of our technique, we have characterized the phenotype of mutant cheV in anaerobic conditions. In the second part of the thesis, we studied stochastic thermodynamic using a micron-sized dielectric sphere.The control of the temperature in such experiments has a key importance to understand the energetics of the small systems. We suggested a novel technique to control the kinetic temperature of a sphere by applying of an external force with the same power spectral density (PSD) as one of the thermal noise. We experimentally tested our hypothesis in equilibrium, measuring the position histogram and PSD of the microsphere, and out of equilibrium, implementing a protocole to test Crooks theorem. We conclude that our technique allows one to control the kinetic temperature of a Brownian particle over a wide range of values, from room temperature to several thousand Kelvin with high temporal accuracy. The most obvious application of this technique is the realization of nonisothermal processes. Among them, an adiabatic process is essential although controversial in small systems. We study its meaning in a colloidal particle experiment, paying attention to the consequences of the overdamped approximation. Finally, we could realize for the first time the Carnot cycle, using a colloidal particle in a liquid as a working substance. The effect of the thermal bath is also present in the thermodynamics of information. In the last chapter, we considered the derivation of an universal equivalence between the energetics of a process and the probability of a system to choose it among other options. The obtained expression can be considered a generalization of the Landauer limit. We tested our theory in an experiment where a continuous transition from a single well to a double well potential produces a symmetry breaking affecting a Brownian particle. Moreover, combining two of the process, we were able to achieve the first realization of a Szilard engine based on symmetry breaking and symmetry restoration. / Casi dos siglos después de la observación de Robert Brown, el estudio de sistemas gobernados por ruido se ha convertido en una parte significativa de la física moderna. Con el objetivo de obtener información, y de tratar de predecir, sistemas complejos, se han trazado analogías en situaciones muy diversas, tales como el mercado de valores, las relaciones interpersonales, los ecosistemas, etc. En particular, si nos detenemos en los denominados como sistemas pequeños, podemos observar como las fluctuaciones térmicas determinan su dinámica y su energética. Al tratarse de sistemas cuyos intercambios de energía con el entorno son del orden de magnitud de las fluctuaciones, podemos observar aparentes violaciones de las leyes clásicas de la termodinámica. Ejemplos de esta escala son las diversas biomoléculas como el ADN o el ARN, los diversos motores moleculares o una célula en su conjunto, pasando por partículas coloidales en suspensión. Para el estudio de los sistemas mesoscópicos, hemos usado la técnica de la pinza óptica, la cual nos permite ejercer fuerzas del orden de picoNewtons con resolución nanométrica. Por medio de un haz fuertemente enfocado, podemos crear un potencial óptico donde objetos con índice de refracción mayor que el del medio son atrapados. En esta tesis hemos estudiado el rol del ruido en sistemas biológicos y en sistemas físicos. En primer lugar, observamos que la dinámica estacionaria de una molécula individual de ADN en el régimen entrópico (fuerzas por debajo de 5 pN) muestra una componente espectral que sigue una ley de potencias 1=f . Por otra parte, también estudiamos la trayectoria de bacterias bajo una única trampa óptica. La bacteria elegida fue la Salmonella enterica, en diversas mutaciones para poder fijar su fenotipo. En particular, además de validar la técnica, caracterizamos el fenotipo del mutante cheV en condiciones anaeróbicas. El control de la temperatura en experimentos de partículas coloidales es de una importancia clave para completar la energética de los sistemas pequeños. A pesar de que existen métodos para variar la temperatura del fluido, estos cambios están siempre acotados por límites físicos, como evaporación, y sufren de inconvenientes, como convección y cambios de la viscosidad del fluido, que impiden un estudio cómodo de los procesos no isotermos. Enunciamos una hipótesis muy sencilla: nuestra partícula coloidal es incapaz de diferenciar entre el ruido térmico y un fuerza externa de la misma naturaleza. Comprobamos que nuestra hipótesis es correcta en equilibrio y no equilibrio, por medio del estudio del histograma de posiciones, del PSD e implementando un protocolo donde poder estudiar el teorema de Crooks. La aplicación más obvia de esta técnica es la realización de procesos noisotermos. Dentro de ellos, es imprescindible la aproximación al concepto de adiabaticidad, tan presentes en la termodinámica clásica. Siendo imposible rodear de paredes adibáticas nuestro sistema, desarrollamos los diversos protocolos sugeridos durante los últimos 10 años en la literatura. Como colofón, desarrollamos el primer ciclo de Carnot experimental con partículas coloidales. El efecto del baño térmico también se encuentra presente en la termodinámica de la información. En el último capítulo de la tesis, desarrollamos una expresión analítica que relaciona la probabilidad de llevar a cabo un proceso con la energía que se puede extraer del baño térmico durante el mismo. Esta expresión puede considerarse una generalización del principio de Landauer. Gracias a la flexibilidad que nos presta el AOD para generar potenciales ópticos, comprobamos la relación con un experimento con partículas coloidales. Para terminar, presentamos un motor de Szilard con partículas coloidales, el cual permite obtener trabajo del baño térmico a través de la información disponible sobre el sistema.
42

A mesoscopic traffic simulation based dynamic traffic assignment

Linares Herreros, Mª Paz 24 April 2014 (has links)
In terms of sustainability, traffic is currently a significant challenge for urban areas, where the pollution, congestion and accidents are negative externalities which have strongly impacted the health and economy of cities. The increasing use of private vehicles has further exacerbated these problems. In this context, the development of new strategies and policies for sustainable urban transport has made transport planning more relevant than ever before. Mathematical models have helped greatly in identifying solutions, as well as in enriching the process of making decisions and planning. In particular, dynamic network models provide a means for representing dynamic traffic behavior; in other words, they provide a temporally coherent means for measuring the interactions between travel decisions, traffic flows, travel time and travel cost. This thesis focuses on dynamic traffic assignment (DTA) models. DTA has been studied extensively for decades, but much more so in the last twenty years since the emergence of Intelligent Transport Systems (ITS). The objective of this research is to study and analyze the prospects for improving this problem. In an operational context, the objective of DTA models is to represent the evolution of traffic on a road network as conditions change. They seek to describe the assignment of the demand on different paths which connect every OD pair in a state of equilibrium. The behaviour following each individual decision during a trip is a time-dependent generalization of Wardrop's First Principle, the Dynamic User Equilibrium (DUE). This hypothesis is based on the following idea: When current travel times are equal and minimal for vehicles that depart within the same time interval , the dynamic traffic flow through the network is in a DUE state based on travel times for each OD pair at each instant of time ([ran-1996]). This work begins with the time-continuous variational inequalities model proposed by [friesz-1993] for solving the DUE problem. Different solutions can be used on the proposed DUE formulation. On the one hand, there are the so-called analytical approaches which use known mathematical optimization techniques for solving the problem directly. On the other hand, there are simulation-based formulations that approximate heuristic solutions at a reasonable computational cost. While analytical models concentrate mainly on deriving theoretical insights, simulation-based models focus on trying to build practical models for deployment in real networks. Thus, because the simulation-based formulation holds the most promise, we work on that approach in this thesis. In the field of simulation-based DTA models, significant progress has been made by many researchers in recent decades. Our simulation-based formulation separates the proposed iterative process into two main components: - A method for determining the new time dependent path flows by using the travel times on these paths experienced in the previous iteration. - A dynamic network loading (DNL) method, which determines how these paths flow propagate along the corresponding paths. However, it is important to note that not all computer implementations based on this algorithmic framework provide solutions that obtain DUE. Therefore, while we analyze both proposals in this thesis we focus on the preventive methods of flow reassignment because only those can guarantee DUE solutions. Our proposed simulation-based DTA method requires a DNL component that can reproduce different vehicle classes, traffic light controls and lane changes. Therefore, this thesis develops a new multilane multiclass mesoscopic simulation model with these characteristics, which is embedded into the proposed DUE framework. Finally, the developed mesoscopic simulation-based DTA approach is validated accordingly. The results obtained from the computational experiments demonstrate that the developed methods perform well. / En los últimos tiempos, el problema del tráfi co urbano ha situado a las áreas metropolitanas en una difícil situación en cuanto a sostenibilidad se refi ere (en términos de la congestión, los accidentes y la contaminación). Este problema se ha visto acentuado por la creciente movilidad promovida por el aumento del uso del vehículo privado. Además, debido a que la mayor parte del trá fico es canalizada a través de los modos de carretera, el tiempo perdido por los usuarios al realizar sus viajes tiene un importante efecto económico sobre las ciudades. En este contexto, la plani cación de transporte se vuelve relevante a través del desarrollo de nuevas estrategias y políticas para conseguir un transporte urbano sostenible. Los modelos matemáticos son de gran ayuda ya que enriquecen las decisiones de los gestores de trá fico en el proceso de plani ficación. En particular podemos considerar los modelos de trá fico para la predicción, como por ejemplo los modelos de asignación dinámica de tráfi co (ADT), los cuales proveen de una representación temporal coherente de las interacciones entre elecciones de trá fico, fl ujos de trá fico y medidas de tiempo y coste. Esta tesis se centra en los modelos ADT. Durante las últimas décadas, los modelos ADT han sido intensamente estudiados. Este proceso se ha acelerado particularmente en los últimos veinte años debido a la aparición de los Sistemas Inteligentes de Transporte. El objetivo de esta investigación es estudiar y analizar diferentes posibilidades de mejorar la resolución del problema. En un contexto operacional, el objetivo de los modelos ADT es representar la evolución de la red urbana cuando las condiciones de trá fico cambian. Estos modelos tratan de describir la asignación de la demanda en los diferentes caminos que conectan los pares OD siguiendo un estado de equilibrio. En este caso se ha considerado que el comportamiento de los conductores en cada una de sus decisiones individuales tomadas durante el viaje es una generalización dependiente del tiempo del Primer Principio de Wardrop, denominada Equilibrio Dinámico de Usuario (EDU). Esta hipótesis se basa en la siguiente idea: para cada par OD para cada instante de tiempo, si los tiempos de viaje de todos los usuarios que han partido en ese intervalo de tiempo son iguales y mínimos, entonces el ujo dinámico de trá fico en la red se encuentra en un estado de EDU basado en los tiempos de viaje (Ran and Boyce (1996)). El presente trabajo toma como punto de partida el modelo de inecuaciones variacionales continuo en el tiempo propuesto por Friesz et al. (1993) para resolver el problema de equilibrio dinámico de usuario. Por un lado, se encuentran los denominados enfoques analíticos que utilizan técnicas matemáticas de optimización para resolver el problema directamente. Por otro lado, están los modelos cuyas formulaciones están basadas en simulación que aproximan soluciones heurísticas con un coste computacional razonable. Mientras que modelos analíticos se concentran principalmente en demostrar las propiedades teóricas, los modelos basados en simulación se centran en intentar construir modelos que sean prácticos para su utilización en redes reales. Así pues, debido a que las formulaciones basadas en simulación son las que se muestran más prometedoras a la práctica, en esta tesis se ha elegido este enfoque para tratar el problema ADT. En los últimos tiempos, el campo de los modelos ADT basados en simulación ha sido de especial interés. Nuestra formulación basada en simulación consiste en un proceso iterativo que consta de dos componentes principales, sistematizadas por Florian et al. (2001) como sigue: Un método para determinar los nuevos ujos (dependientes del tiempo) en los caminos utilizando los tiempos de viaje experimentados en esos caminos en la iteración previa. Un procedimiento de carga dinámica de la red (CDR) que determine cómo esos fl ujos se propagan a través de sus correspondientes caminos. Los algoritmos de reasignación de flujo pueden ser agrupados en dos categorías: preventivos y reactivos. Es importante notar aquí que no todas las implementaciones computacionales basadas en el marco algorítmico propuesto proporcionan una solución EDU. Por lo tanto, aunque en esta tesis analizamos ambas propuestas, nos centraremos en los métodos preventivos de reasignación de flujo porque son los que nos garantizan alcanzar la hipótesis considerada (EDU). Además, nuestro modelo ADT basado en simulación requiere de una componente de CDR que pueda reproducir diferentes clases de vehículos, controles semafóricos y cambios de carril. Así, uno de los objetivos de esta tesis es desarrollar un nuevo modelo de simulación de trá fico con dichas características (multiclase y multicarril), teniendo en cuenta que será una de las componentes principales del marco ADT propuesto.
43

Gràfic de control T2 de Hotelling per a dades composicionals

Vives Mestres, Marina 28 November 2014 (has links)
Compositional data are defined as vectors of components that represent parts of a whole and contain relative information (e.g. %, ppm, mg/l...). CoDa are widely found in chemical, pharmaceutical and food industries among others. This thesis proposes a control chart based on the T2 statistic to monitor processes in which the quality characteristic is a composition. The thesis shows how traditional approaches are not consistent with this type of data, i.e. do not follow the principle of subcompositional coherence and result in control regions outside the restricted sample space. We propose a new control chart (compositional T2, T2C) based on a representation of CoDa into coordinates on real space by the use of log ratios of components. The thesis also proposes an algorithm to identify the components that are responsible of the anomaly. We have applied the T2C to a grit manufacturing process and to control the impurity profile of a drug substance / Les dades composicionals (CoDa) es defineixen com a vectors de components que representen parts d’un tot i que contenen informació relativa (e.g. %, ppm, mg/l...). Les CoDa es troben a la indústria química, farmacèutica i alimentària en altres. La tesi proposa un gràfic de control basat en l'estadístic T2 per a controlar processos en els que la característica de qualitat és una composició. Es mostra com els enfocs tradicionals proposats fins al moment no són consistents: incompleixen el principi de coherència subcomposicional i proporcionen regions de control fora de l'espai restringit. La tesi introdueix un nou gràfic de control (T2 composicional, T2C) que es basa en una representació de les CoDa en coordenades a l'espai real mitjançant expressions logràtio dels components. També es proposa un algorisme que permet identificar les components responsables de l’anomalia. S’ha aplicat el T2C al control de producció de grava i al control d'impureses d'un medicament
44

Methods and Models for the Analysis of Biological Signifïcance Based on High­Throughput Data

Mosquera Mayo, José Luís 12 December 2014 (has links)
The advent of high-throughput technologies has generated a huge quantity of omics data. The results of these experiments usually are long lists of genes that can be used as biomarkers. A major challenge for the researchers is to attribute a biological interpretation or significance to these list of potential biomarkers, by using biological information stored in bioinformatics resources such as the Gene Ontology (GO) or the Kyoto Encyclopedia of Genes and Genomes (KEGG), or combining them with other types of omics data. This dissertation had two main objectives. First, to study mathematical properties of two types of semantic similarity measures for exploring GO categories, and second, to classify and to study the evolution of GO tools for enrichment analysis. The first measure considered was a semantic similarity measure proposed by Lord et al. It is a node- based approach based on the Graph Theory. The second measure actually was a group pseudo- distances proposed Joslyn et al. They were edge-based approaches based on the algebraic point of view of the Partially Ordered Sets (POSET) Theory. So, in order of reaching our objectives, first of all a review and description of main methods about graph theory and POSET theory was carried out. This fact allowed us to realized that there are to ways for mapping objects (e.g. genes) in to the terms of an ontology (e.g. GO). First formulation is called Object-Ontology Complex (OOC). It was proposed by Carey in order to perform statistical computations. Second formulation is called POSET Ontology (POSO) and it was introduced by Joslyn et al. In order to classify the GO for enrichment analysis the first 26 GO available at the website of The GO Consortium were surveyed. These left us list of 205 features that were used for building an Standard Functionalities Set. Based on these functionalities the 26 GO tools were classified according to their capabilities. The study of the GO tools evolution was based on the monitoring of these 26 GO tools. So the statistical analysis consisted of a descriptive statistics, an inferential analysis and a multivariate analysis. With regard to the first objective, we have seen the Lord's measure is the same as the Resnik's measure, previously published. It has observed that there exists a certain level of analogy between the formalization of the OOC and the POSO for mapping genes to objects to terms of an ontology. A property and a corollary to calculate semantic similarity measures from node-based approaches based on a matrix point of view have been proposed. It has been proved that the Lord's measure and the Joslyn's measure can be redefined in terms of metric distance. An R package called sims for computing semantic similarity measures between terms of an arbitrary ontology and comparing semantic similarity profiles based on the GO terms associated with two lists of genes has been developed. Based on the classification of the GO programs a web-based tool called SerbGO devoted to select and compare GO tools stored in was developed. The statistical analysis about the evolution of GO tools suggested that the promoters have introduced improvements over time, but clear models of GO tools have been detected. According to the results of the statistical analysis an ontology called DeGOT was built in order to provide an structured vocabulary for the developers when they dealing with the task of introducing improvements in the existing GO tools for enrichment analysis or designing a new one program. DeGOT can be used for supporting queries and comparison results of SerbGO. / L'aparició de les tecnologies d'alt rendiment ha generat una quantitat ingent de dades òmiques. Els resultats d'aquests experiment són llargues llistes de gens, que poden ser utilitzats com a biomarcadors. Un dels grans reptes dels investigadors experimentals és atribuir una interpretació o significació biològica a aquests biomarcadors potencials, ja be sigui extraient la informació bioblògica emmagatzemada en recursos com la Gene Ontology (GO) o la Kyoto Encyclopedia of Genes and Genomes (KEGG), o be combinant-les amb altres dades òmiques. Els objectius de la tesis eren: primer, estudiar les propietats matemàtiques de dos tipus de mesures de similaritat semàntica per a explorar categories GO, i segon, classificar i estudiar l'evolució de les eines GO per a l'anàlisi d'enriquiment. La primera mesura de similaritat semàntica considerada, proposada per en Lord et al., es fonamentava en la teoria de grafs, i la segona era un grup de pseudo-distàncies, proposades per Joslyn et al., fonamentades en la teoria dels Partially Ordered Sets (POSETs). L'estudi de les eines GO es va basar en les primeres 26 eines disponibles al web del The GO Consortium. S'ha vist que la mesura d'en Lord et al. és la mateixa mesura que la d'en Resnik, anteriorment publicada. S'ha observat una analogia en la forma de mapejar els gens a la GO via grafs i/o via POSETs. S'han proposat una propietat i un corol·lari que permeten calcular matricialment les la primera mesura de similaritat semàntica. S'ha demostrat que ambdues mesures estan associades a la distància mètrica. A'ha desenvolupat un paquet R, anomenat sims, que permet calcular similaritats semàntiques d'una ontologia arbitraria i comparar perfils de similaritat semàntica de la GO. S'ha proposat un Conjunt de Funcionalitats Estàndard per a classificar eines GO i s'ha desenvolupat un programari web, anomenat SerbGO, dirigit a seleccionar i comparar eines GO. L'estudi estadístic ha revelat que els promotors de les eines GO han introduït millores al llarg del temps, però no s'han detectat models ben definits. S'ha desenvolupat una ontologia, anomenada DeGOT, que proporciona un vocabulari als desenvolupadors per a introduir millores a les eines o dissenyar una de nova.
45

"Propriedades ópticas e elétricas de filmes epitaxiais de GaAs:Si crescidos na superfície (311)A"

Marcos Jose Semenzato 19 April 2002 (has links)
Um estudo sistemático de caracterização de filmes de GaAs dopados com Silício e crescidos por Epitaxia de Feixes Moleculares sobre substratos de GaAs orientados na superfície (311)A, foi desenvolvido visando compreender os mecanismos de incorporação do Si no filme. Na superfície (311)A o Si tem comportamento anfótero, ou seja, pode ocupar tanto o sítio do Ga como o do As, o que resulta em filmes com portadores tipo n e p, respectivamente. A característica elétrica do filme depende, basicamente, das seguintes condições de crescimento: i) razão entre os fluxos de Ga e As; e ii) temperatura do substrato. As técnicas de caracterização utilizadas foram fundamentalmente fototoluminescência, IxV e Efeito Hall. A partir dos filmes de GaAs:Si crescidos na superfície (311)A, foram estudadas as características elétricas de junções Metal-Semicondutor(M-SC) obtidas a partir da deposição seqüencial de AuGe/Ni e Au/Zn/Au para os filmes com características n e p respectivamente. A resistividade de contato foi estudada como função da temperatura e tempo de tratamento térmico, a partir de um sistema desenvolvido para RTA(Rapid Thermall Annealing), obtendo-se as condições ideais dos contatos no regime ôhmico. A técnica de Difração de R-X foi utilizada para verificar a evolução da microestrutura formada na interface M-SC, evidenciando a formação da fase AuGa, responsável pela característica ôhmica do contato. O estudo realizado serviu como base para o desenvolvimento de junções p-n baseadas na superfície (311)A e sua aplicação em dispositivos optoeletrônicos.
46

Selección de competencias para el uso profesional de la estadística en administración y dirección de empresas y propuesta de actividades para fomentar su desarrollo y evaluación en los estudios del Grado en ADE

Serrano Molinero, Vanessa 19 June 2015 (has links)
L’ensenyament i l’aprenentatge de la estadística ha estat objecto d’investigació de forma recurrent en les últimes dècades. Alguns d’aquests treballs tenen com àmbit general l’aplicació de la estadística al món professional i, en conseqüència, el desenvolupament de competències des de la formació universitària. Per integrar les competències als plans d’estudi de la educació superior és habitual la utilització d’activitats formatives que permetin aproximar el context professional a les aules. No obstant, la seva integració en el programa deu anar acompanyada de noves formes d’avaluació que no es basin exclusivament en els resultats d’exàmens de continguts. Aquesta tesi s’ha restringit al perfil d’un professional de l’administració i la direcció d’empreses (ADE). Sota aquest context, el primer objectiu consisteix en seleccionar les competències prioritàries per un ús adequat de la estadística aplicada a ADE. En segon lloc, dissenyar activitats per fomentar el desenvolupament de les competències millor posicionades en la selecció anterior en una assignatura d’estadística durant els estudis del Grau en ADE. I, per acabar, avaluar les activitats dissenyades per conèixer el nivell de competència assolit pels estudiants. S’ha considerat com a punt de partida el model proposat per Serrano (2009), que ha sigut avaluat i simplificat combinant la tècnica de triangulació i una adaptació del mètode Delphi en dues etapes. Finalment, s’ha obtingut la ordenació de les competències seleccionades a partir de la opinió d’un grup d’experts en RRHH. Com a resultat principal, es destaca que la competència més valorada en el context descrit és la capacitat de “Interpretar els resultats”. Li segueixen: “Presa de decisions”, “Pensament crític”, “Identificar la rellevància dels resultats” i “Comprensió”. S’han proposat dos tipus d’activitats per promoure el desenvolupament de la competència “Interpretar els resultats” a l’aula: l’estudi de casos i activitats de reflexió i interpretació d’enunciats clàssics. Per últim, pel que fa a les eines d’avaluació, es recomana especialment combinar, quan sigui necessari, rúbriques, informes de resultats, l’anàlisi de traces de l’activitat dels estudiants i la observació directa. / La enseñanza y el aprendizaje de la estadística ha sido objeto de investigación de forma recurrente en las últimas décadas. Algunos de estos trabajos tienen como ámbito general la aplicación de la estadística en el mundo profesional y, en consecuencia, el desarrollo de competencias desde la formación universitaria. Para integrar las competencias en los planes de estudio de la educación superior es habitual la utilización de actividades formativas que permitan aproximar el contexto profesional a las aulas. Sin embargo, su integración en el programa debe ir acompañada de nuevas formas de evaluación que no se basen exclusivamente en los resultados de exámenes de contenidos. Esta tesis se ha ceñido al perfil de un profesional de la administración y la dirección de empresas (ADE). Bajo este contexto, el primer objetivo consiste en seleccionar las competencias prioritarias para un uso adecuado de la estadística aplicada en ADE. En segundo lugar, diseñar actividades para fomentar el desarrollo de las competencias mejor posicionadas en la selección anterior en una asignatura de estadística durante los estudios del Grado en ADE. Y, para terminar, evaluar las actividades diseñadas para conocer el nivel de competencia adquirido por los estudiantes. Se ha tomado como punto de partida el modelo propuesto por Serrano (2009), que ha sido evaluado y simplificado combinando la técnica de triangulación y una adaptación del método Delphi en dos etapas. Finalmente, se ha obtenido la ordenación de las competencias seleccionadas a partir de la opinión de un grupo de expertos en RRHH. Como resultado principal, se destaca que la competencia más valorada en el contexto descrito es la capacidad de “Interpretar los resultados”. Le siguen: “Toma de decisiones”, “Pensamiento crítico”, “Identificar la relevancia de los resultados” y “Comprensión”. Se han propuesto dos tipos de actividades para promover el desarrollo de la competencia “Interpretar los resultados” en el aula: el estudio de casos y actividades de reflexión e interpretación de enunciados clásicos. Por último, en cuanto a las herramientas de evaluación, se recomienda especialmente combinar, cuando sea necesario, rúbricas, informes de resultados, el análisis de trazas de la actividad de los estudiantes y la observación directa. / Teaching and learning statistics has repeatedly been the object of research over the past few decades. The general framework of some of these papers consists in applying statistics to the professional world, consequently, in developing competencies for university education. In order to integrate said competencies into higher education curricula it is common to use educational activities that enable bringing the professional context closer to the classroom. However, their integration into the programme must be accompanied by new ways of assessing that are not exclusively based on the results of exams of content. This work limits itself to the profile of a Business Administration and Management professional. In this context, the first objective consists in selecting the most important competencies for the proper use of applied statistics in the Degree of Business Administration and Management. The second objective is to design activities to encourage the development of the best-positioned competencies in the previous selection in a statistics subject in the Degree of Business Administration and Management. Thirdly, it is necessary to assess the activities designed to know the level of competence acquired by the students. The model proposed by Serrano (2009), which was assessed and simplified combining the triangulation technique and an adaptation of the Delphi method in two phases, was taken as the starting point. Finally, a ranking of the competencies selected according to the opinion of a group of HR experts was obtained. As the main result, it needs to be highlighted that the most appreciated competence within the context described is the capacity to “Interpret results”, followed by: “Decision-making”, “Critical Thinking”, “Identify the relevance of results” and “Understanding”. Two kinds of activities were proposed to promote the development of the “Interpret results” competency in the classroom: the study of cases and activities related to thinking and interpretation of classical statements. Finally, as far as assessment tools are concerned, it is particularly recommended to combine, when necessary, rubrics, result reports, analysing traces of the students’ activity and the direct observation.
47

Enhance the value of participative geospatial data, modelling using point pattern processes

Aragó Galindo, Pau 16 May 2016 (has links)
Esta tesi tracta sobre la participació de les persones en la creació de dades espacials de forma més o menys voluntària i en l'anàlisi d'aquestes dades utilitzant patrons de processos puntuals i geoestadística. Les dades geogràfiques creades per voluntaris suposen un canvi radical en la forma com aquestes han segut creades tradicionalment. Fins fa uns anys, les dades geogràfiques han estat creades tan sols per experts i grans institucions, una aproximació des de dalt cap a baix. La revolució 2.0 a internet ha permés que la tecnologia estiga a l'abast de tothom. Per a les dades geogràfiques ha suposat que qualsevol puga contribuir a projectes voluntaris com OspenStreetMap aportant el seu coneixemnet de l'entorn. Una aportació des de baix cap a dalt. Aquest canvi deixa preguntes sobre si es poden emprar les dades, quina qualitat tenen, són creïbles els usuaris quan fan aportacions, hi ha errors... Aquesta tesi tracta de donar resposta a com fer mesures de la qualitat, la credibilitat i l'anàlisi de les dades així com facilitar la recol·lecció de dades geogràfiques provinents de les xarxes socials.
48

Bayesian analysis of textual data

Font Valverde, Martí 18 January 2016 (has links)
En esta tesis se desarrolla, siempre con el enfoque bayesiano en mente, una metodología estadística para el análisis de datos discretos en su aplicación en problemas estilometría. El análisis estadístico del estilo literario se ha utilizado para caracterizar el estilo de textos y autores, y para ayudar a resolver problemas de atribución de autoría. Estudios anteriores caracterizaron el estilo usando la longitud de las palabras, la longitud de las oraciones, y la proporción de los sustantivos, artículos, adjetivos o adverbios. Los datos que aquí se utilizan van, desde la frecuencia de frecuencias de palabras, hasta el análisis simultáneo de la frecuencia de longitud de palabra y de las palabras funcionales más frecuentes. Todos estos datos son característicos del estilo de autor y al mismo tiempo independiente del contexto en el que escribe. De esta forma, se introduce un análisis bayesiano de la frecuencia de frecuencias de palabras, que tiene una distribución en forma de J inversa con las colas superiores extraordinariamente largas. Se basa en la extensión de la metodología no bayesiana de Sichel para estos datos utilizando el modelo Poisson inversa gaussiana. Los modelos se comprueban mediante la exploración de la distribución a posteriori de los errores de Pearson y por la implementación de controles de consistencia de la distribución predictiva a posteriori. La distribución a posteriori de la inversa gausiana tiene una interpretación útil, al poder ser vista como una estimación de la distribución vocabulario del autor, de la cual se pueden obtener la riqueza y diversidad de la escritura del autor. Se propone también un análisis alternativo basado en la mixtura inversa gaussiana - poisson truncada en el cero, que se obtiene cambiando el orden de la mezcla y el truncamiento. También se propone un análisis de la heterogeneidad de estilo, que es un compromiso entre el modelo de punto de cambio, que busca un cambio repentino de estilo, y el análisi de conglomerados, que no tiene en cuenta el orden. El análisis incorpora el hecho de que partes próximas de un texto tienen más probabilidades de pertenecer al mismo autor que partes del texto más separadas. El enfoque se ilustra volviendo a revisar la atribución de autoría del Tirant lo Blanc. Para el análisis de la heterogeneidad del estilo literario se propone también un análisis estadístico que utiliza simultáneamente diferentes características estilométricas, como la longitud palabra y la frecuencia de las palabras funcionales más frecuentes. Las filas de todas tablas de contingencia se agrupan simultáneamente basandose en una mezcla finita de conjuntos de modelos multinomiales con un estilo homogéneo. Esto tiene algunas ventajas sobre las heurísticas utilizadas en el análisis de conglomerados, ya que incorpora naturalmente el tamaño del texto, la naturaleza discreta de los datos y la dependencia entre las categorías. Todo ello se ilustra a través del análisis del estilo en las obras de teatro de Shakespeare, el Quijote y el Tirant lo Blanc. Finalmente, los problemas de atribución y verificación de autoría, que se tratan normalmente por separado, son tratados de forma conjunta. Esto se hace asumiendo un escenario abierto de clasificación para el problema de la atribución, contemplando la posibilidad de que ninguno de los autores candidatos, con textos conocidos para aprendijaje, es el autor de los textos en disputa. Entonces, el problema de verificación se convierte en un caso especial de problema de atribución. El modelo multinomial bayesiano propuesto permite obtener una solución exacta y cerrada para este problema de atribución de autoría más general. El enfoque al problema de verificación se ilustra mediante la exploración de si un fallo judicial condenatorio podría haber sido escrito por el juez que lo firma o no, y el enfoque al problema de atribución se ilustra revisando el problema de la autoría de los Federalist Papers. / In this thesis I develop statistical methodology for analyzing discrete data to be applied to stylometry problems, always with the Bayesian approach in mind. The statistical analysis of literary style has long been used to characterize the style of texts and authors, and to help settle authorship attribution problems. Early work in the literature used word length, sentence length, and proportion of nouns, articles, adjectives or adverbs to characterize literary style. I use count data that goes from the frequency of word frequency, to the simultaneous analysis of word length counts and more frequent function words counts. All of them are characteristic features of the style of author and at the same time rather independent of the context in which he writes. Here we intrude a Bayesian Analysis of word frequency counts, that have a reverse J-shaped distribution with extraordinarily long upper tails. It is based on extending Sichel's non-Bayesian methodology for frequency count data using the inverse gaussian Poisson model. The model is checked by exploring the posterior distribution of the Pearson errors and by implementing posterior predictive consistency checks. The posterior distribution of the inverse gaussian mixing density also provides a useful interpretation, because it can be seen as an estimate of the vocabulary distribution of the author, from which measures of richness and of diversity of the author's writing can be obtained. An alternative analysis is proposed based on the inverse gaussian-zero truncated Poisson mixture model, which is obtained by switching the order of the mixing and the truncation stages. An analysis of the heterogeneity of the style of a text is proposed that strikes a compromise between change-point, that analyze sudden changes in style, and cluster analysis, that does not take order into consideration. Here an analysis is proposed that strikes a compromise by incorporating the fact that parts of the text that are close together are more likely to belong to the same author than parts of the text far apart. The approach is illustrated by revisiting the authorship attribution of Tirant lo Blanc. A statistical analysis of the heterogeneity of literary style in a set of texts that simultaneously uses different stylometric characteristics, like word length and the frequency of function words, is proposed. It clusters the rows of all contingency tables simultaneously into groups with homogeneous style based on a finite mixture of sets of multinomial models. That has some advantages over the usual heuristic cluster analysis approaches as it naturally incorporates the text size, the discrete nature of the data, and the dependence between categories. All is illustrated with the analysis of the style in plays by Shakespeare, El Quijote, and Tirant lo Blanc. Finally, authorship attribution and verification problems that are usually treated separately are treated jointly. That is done by assuming an open-set classification framework for attribution problems, contemplating the possibility that neither one of the candidate authors, with training texts known to have been written by them is the author of the disputed texts. Then the verification problem becomes a special case of attribution problems.A formal Bayesian multinomial model for this more general authorship attribution is given and a closed form solution for it is derived. The approach to the verification problem is illustrated by exploring whether a court ruling sentence could have been written by the judge that signs it or not, and the approach to the attribution problem illustrated by exploring whether a court ruling sentence could have been written by the judge that signs it or not, and the approach to the attribution problem is illustrated by revisiting the authority attribution
49

Resiliència i adopció: Validació de l'Inventari de Resiliència Infantil (IRI)

Solórzano Fàbrega, Elisabet 20 January 2016 (has links)
El sentit últim de la nostra investigació és possibilitar al màxim la projecció futura de tot infant adoptat, amb un correcte desenvolupament físic i psíquic; per aconseguir-ho cal tenir en compte tant les característiques individuals i/o fortaleses de l’individu, com les de la família i les de l’entorn més proper o xarxa social (Walsh, 2004; Delage, 2010). La resiliència o capacitat resilient és cabdal en la infància, especialment en el camp de l’adopció, ja que és fonamental per a la vinculació i adaptació dels infants a les seves famílies adoptives així com per a la prevenció de la salut mental dels infants. En el nostre estudi emfatitzem la necessitat de interrelació entre la investigació i la intervenció professional amb famílies adoptives que emmarquem des d’un model d’intervenció en postadopció, fonamentat en el constructivisme relacional, integrador, interdisciplinari i centrat en la relació (Pacheco, Garcia, Ger, Sallés i Boadas, 2012) i que subratlla la funció reparadora de la parentalitat adoptiva a través, entre d’altres processos, del foment de la resiliència (Cyrulnik, 2002). És per això que desenvolupem la validació d’un instrument útil tan per a la recerca com per a l’avaluació del procés i resultat terapèutic. En aquest sentit, l’objectiu principal de la nostra recerca és realitzar la validació de l’Inventario de Resiliencia Infantil (IRI) en població espanyola, test que avalua la resiliència dels infants de 7-13 anys. Fem l’anàlisi psicomètrica del mateix per tal de conèixer la validesa de contingut i fiabilitat (N=576), com també analitzem els resultats obtinguts a l’entorn del Grau de Resiliència de la població estudiada i les diferències entre dues mostres diferenciades segons tipus de filiació (adoptiva o biològica). Els resultats permeten concloure que les nenes son més resilients que els nens, i en relació al Grau de Resiliència els infants no presenten diferències significatives segons la variable filiació, però sí pel que fa a una de les seves dimensions, la proactivitat. / El sentido último de nuestra investigación es posibilitar al máximo la proyección futura de todos los/as niños/as adoptadas con un correcto desarrollo físico y psíquico, para conseguirlo es necesario tener en cuenta tanto las características individuales y/o fortalezas del individuo y las de su familia, como también las de su entorno más próximo o red social (Walsh, 2004; Delage, 2010). La resiliencia o capacidad resiliente es importante en la infancia, especialmente en el campo de la adopción, ya que es fundamental para la vinculación y adaptación de los niños y niñas a sus familias adoptivas como también para la prevención de la salud mental de los menores. En nuestro estudio enfatizamos la necesidad de interrelación entre investigación y la intervención profesional con familias adoptivas que enmarcamos desde un modelo de intervención en postadopción, fundamentado en el constructivismo relacional, integrador, interdisciplinar y centrado en la relación (Pacheco, Garcia, Ger, Sallés y Boadas, 2012), y que subraya los procesos que se refieren a la construcción de la identidad y que subraya la función reparadora de la parentalidad adoptiva a través, entre otros procesos, del fomento de la resiliencia (Cyrulnik, 2002). Por todo ello desarrollamos la validación de un instrumento útil tanto para la investigación como para la evaluación del proceso y el resultado terapéutico. En este sentido, el objetivo principal de nuestro estudio es realizar la validación del Inventario de Resiliencia Infantil (IRI) en población española, test que evalúa la resiliencia de los menores entre 7-13 años. Realizamos el análisis psicométrico del mismo para conocer la validez de contenido y fiabilidad (N=576), como también analizamos los resultados obtenidos relacionados con el Grado de Resiliencia de la población estudiada y las diferencias entre las dos muestras diferenciadas según filiación (adoptiva o biológica). Los resultados concluyen que las niñas son más resilientes que los niños, y en relación al Grado de Resiliencia los niños y niñas no presentan diferencias significativas según la variable filiación, pero sí en una de sus dimensiones, la Proactividad. / The ultimate meaning of our research is to enable to the maximum every adopted child's projection with a correct physical and psychological development. In order to achieve this, we must take into account both the individual characteristics and/or strengths of each being, as well as their family and immediate environment or social network (Walsh, 2004; Delage, 2010). Resilience or the resilient capacity in childhood is critical, especially in the field of adoption, as it is fundamental to the bonding and adaptation of the children to their adoptive families as well as to the prevention of mental health in children. In our study we emphasize the need for interaction between research and professional intervention with adoptive families that we frame from an investigation model of post-adoption, based in a relational, integrating, interdisciplinary constructivism which is focused on the relationship (Pacheco, Garcia, Ger, Sallés and Boadas, 2012) which highlights the reconstructive role of adoptive parenting through, among other processes, promotion of resilience (Cyrulnik, 2002). That is why we develop the validation of such a useful tool, both for research and for evaluating the process and therapeutic result. In this regard, the main objective of our research is to validate the Inventario de Resiliencia Infantil (IRI) in Spanish population, through a test that evaluates the resilience of 7-13 years old children. We elaborate its psychometric analysis to know its validity and reliability (N=576), as well as analyze the results achieved around the Degree of Resilience of the studied population and the differences between two samples differentiated by affiliation type (biological or adoptive). The results concluded that girls are more resilient than boys, and in relation to the Degree of Resilience, children have no significant differences depending on the variable of affiliation, but they do with regards to one of its dimensions, pro-activity.
50

Essays on financial contagion

Urbina Calero, Jilber Andrés 05 December 2013 (has links)
Esta tesis analiza el mecanismo de transmisión de la reciente Crisis Financiera Global de 2008 por medio del empleo de pruebas de hipótesis para determinar si el contagio ocurrió, la ausencia de contagio implica que la propagación de la crisis se dio por vía de interdependencia. Esta tesis está constituida por siete capítulos muy relacionados entre sí, todos ellos están dedicados a analizar la existencia del contagio en los mercados bursátiles. La principal conclusión de este trabajo es que los mercados permanecen altamente vinculados antes y después de la crisis, de manera que, el contagio no fue el principal canal de transmisión de la crisis. En este trabajo se usaron observaciones diarias los retornos de seis mercados bursátiles abarcando el periodo que va desde junio de 2003 hasta diciembre 2012. El foco principal de la investigación es sobre el estudio de los comovimentos condicionales, es decir, la correlación condicional y la co-asimetría condicional. / This thesis analyses the transmission channel of the recent 2008 Global Financial Crisis by testing whether contagion occurred, the absent of contagion implies that crisis spills over via interdependence. This thesis consists of seven closely related chapters, all of them are devoted to analyze the existence of contagion in stock markets. The main conclusion from this work is that markets remains highly linked before and after crises, therefore, contagion is not the main transmission channel. Daily estimations on six aggregate stock market returns are used in this study covering from June 2003 to December 2012. The main focus of the research is on conditional comovements, namely, conditional correlations and conditional co-skewness.

Page generated in 0.0466 seconds