• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 51
  • 19
  • 15
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 184
  • 90
  • 40
  • 34
  • 30
  • 28
  • 22
  • 20
  • 18
  • 17
  • 17
  • 17
  • 16
  • 16
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Aportaciones metodológicas al diseño de productos robustos

Grima Cintas, Pere 22 March 1993 (has links)
Se propone una nueva metodología que facilita la selección de los valores óptimos de los factores de diseño para llegar a una solución de compromiso entre la distancia al óptimo y la varianza de la respuesta, de acuerdo con los intereses del diseñador. La novedad del método no reside en el planteamiento del diseño experimental (aunque no se usa la típica matriz producto de Taguchi), sino en el análisis que se realiza a partir del modelo obtenido para la respuesta. Dicho análisis se basa en la realización de un diagrama bivariante de la varianza de la respuesta frente a la distancia al óptimo en el que cada punto representa una determinada combinación de valores de los factores de diseño. La aplicación de estemétodo es especialmente sencillo, tanto desde un punto de vista conceptual como práctico, si se utiliza una hoja de cálculo para ordenador personal. A lo largo de la Tesis se van presentando ejemplos que sirven para ilustrar lasposibilidades y forma de utilización de la metodología propuesta.
92

Models estadístics en avaluació educativa: les proves d'accés a la universitat

Cuxart i Jardí, Anna 26 November 1998 (has links)
La tesis se inscribe en un doble ámbito científico formado por la Estadística y la Pedagogía. El objetivo de la tesis es la investigación de modelos estadísticos y estrategias de análisis que puedan ser de utilidad en el seguimiento de sistemas de evaluación complejos. Su motivación se encuentra en la necesidad de analizar las Pruebas de Aptitud para el Acceso a la Universidad (PAAU), que regulan el acceso a la universidad en España, desde la perspectiva de la ciencia estadística. La validez y fiabilidad de los exámenes COU (Curso de Orientación Universitaria) y PAAU han merecido una atención especial a lo largo de la investigación. Asimismo, se analizan con detenimiento las principales fuentes de variación de dichas notas: las diferencias entre centros de secundaria y el proceso de corrección de las pruebas PAAU.En la Introducción, una vez resumidas las características del sistema de evaluación de las pruebas PAAU y discutido el papel de la estadística en el tratamiento de datos en educación, se establecen los objetivos concretos de la tesis, a la luz de las necesidades existentes y de los trabajos de investigación realizados hasta el momento.El Capítulo 1 ilustra las diferencias entre los exámenes COU y las pruebas PAAU. Se aborda el estudio de la asociación entre ambas puntuaciones. La modelización de la variación de la nota PAAU individual por medio de modelos de regresión coeficientes aleatorios permite evidenciar (y medir) las diferencias entre centros de secundaria en cuanto a los estándares utilizados en COU. Este primer capítulo contiene una detallada introducción a los modelos de coeficientes aleatorios, también llamados modelos de nivel múltiple, que posteriormente se aplicaran en los capítulos 2 y 4, en la versión de modelos multivariantes de componentes de la varianza. El segundo capitulo, en un enfoque que complementa el anterior, se centra en el estudio de las medias (de COU y de PAAU) de cada centro, en la estructura de covarianza entre ambas. Como resultado relevante cabe citar la aplicación a la selección de la combinación más eficiente. El Capítulo 3 se ha dedicado enteramente a la calidad del sistema de corrección de los exámenes PAAU. La modelización presentada ha permitido evaluar el impacto de los correctores en términos de la varianza debida a las diferencias en el grado de severidad y a la varianza generada por la inconsistencia. Para la obtención de los datos se ha requerido del diseño de experimentos. Dichos experimentos, que han evidenciado una serie de puntos débiles del sistema, deberían ser realizados de manera sistemática cada año en una estrategia de mejora de la calidad del proceso. El Capítulo 4 estudia la covarianza del conjunto de notas PAAU tanto a nivel estudiante como a nivel centro, ofreciendo nuevos elementos de reflexión para la validez de dichas pruebas. El Capítulo 5 resume la aplicación de varias propuestas de la tesis a la primera convocatoria de las pruebas PAAU-LOGSE. El Capítulo 6 incluye las conclusiones de la tesis así como una serie de propuestas de seguimiento y mejora de la calidad global del sistema.
93

Análisis matemático del equilibrio en estructuras de membrana con bordes rígidos y cables. Pasarelas: forma y pretensado

Viglialoro, Giuseppe 14 March 2007 (has links)
Las membranas son estructuras (sin rigidez a flexión) que conforman una superficie en el espacio, con espesor mínimo. Se aproximan a una superficie geométrica y trabajan sólo mediante esfuerzos de membrana (de tracción) y tangentes a la superficie.La tesis se centra en el análisis matemático de las membranas portantes (abiertas y con bordes), con miras a extender sus aplicaciones en el campo de la ingeniería civil, concretamente a las pasarelas de peatones. Esto implica esfuerzos mayores, no sólo por los efectos de las cargas de uso de tales estructuras, sino porque requieren mayor pretensado para mantener la rigidez.La tesis se centra en el análisis matemático de membranas a tracción en la fase de pretensado, en la que, como resultado de aplicar el pretensado a una forma potencial o virtual de la membrana, correspondiente a esfuerzos nulos, se llega ya a una forma real. El problema de introducir y mantener el pretensado está relacionado con los bordes de la membrana, definidos por curvas en el espacio. Los mismos pueden tener curvatura o no tenerla (elementos rectos). Si los elementos de borde son rectos, para equilibrar el pretensado de la membrana, deben tener rigidez a flexión.Entre los elementos de borde curvos, revisten notable importancia los cables a tracción, elementos sin rigidez a flexión cuya disposición permite distribuir los esfuerzos de tracción en toda la membrana.Se aprecia, así, que ha de buscarse cierto equilibrio entre forma y pretensado tanto en el interior de la membrana como en su borde.Matemáticamente, el planteamiento más general, y más complejo, corresponde al caso en que los elementos de borde son cables a tracción. Lo dicho lleva a dos problemas de contorno.El primero consiste en encontrar, una vez fijada la forma de membrana, los esfuerzos de pretensado que verifiquen el equilibrio (planteamiento directo) y el segundo en encontrar, una vez fijados los esfuerzos de tracción, la forma de la membrana que verifique el equilibrio (planteamiento dual).Ambos problemas se complican sensiblemente en el caso en que el borde esté compuesto por cables a tracción.El resultado principal del problema directo es que, en cualquier caso (esto es, independientemente de que el borde sea rígido o no), se obtiene un problema diferencial hiperbólico con condición de contorno de tipo Dirichlet.Si a esto se le añade que, en el caso en que se consideren cables de borde éstos coinciden con las curvas características, el problema directo está en general mal definido.El resultado principal del problema dual es que, en cualquier caso (esto es, independientemente de que el borde sea rígido o no) se obtiene un problema diferencial elíptico con condición de contorno de tipo Dirichlet, esto es un problema diferencial en general bien definido.Siempre que no se consideren cables, el problema dual devuelve una única forma de membrana por cada distribución de esfuerzos de tracción (problema elíptico con condición de Dirichlet). Al revés, el problema dual completo (con cables) tiene una formulación "no clásica" visto que, a largo del cable, su incógnita ha de verificar contemporáneamente dos condiciones: una de tipo Dirichlet y otra (no estándar) sobre las derivadas segundas de la forma de membrana.En la tesis se describe un método numérico para el cálculo de la solución. Éste se basa en la definición de un "vector residual" que, al ser "minimizado", devuelve el valor nodal de la membrana a lo largo del cable. / Membranes are structures (without bending stiffness) identified with space surfaces with minimal thickness. They are approximated by geometrical surfaces and its stress tensor is defined by tension vectors in the tangent plane.The PhD thesis is based on the mathematical analysis of membrane structures (opened and with boundaries) with the idea of applying them in Civil Engineering, more precisely to a new technology such as bridgefoots. It implies taking in account greater tensions, not only due to the loads that structures are subjected to, but because the same structures need more prestressed to preserve rigidity.The report is based on mathematical analysis of tension membranes in the prestressed phase. In this phase, starting from a virtual shape for the membrane, with all tensions zeros, you obtain, due to the application of the prestressed, a real form.The problem in introducing and preserving the prestressed is related to the boundaries of the membrane, defined by regular space curves. The boundaries can be curved or not (straight elements). If boundary elements are straight, to verify the equilibrium with the prestressed of membrane, they must have bending stiffness.On the other hand, cables are very important curved boundary elements. They have no bending stiffness (work in tension, do not resist to compression) and its shape and placement is such that they can administer tensions all over the membrane.In this way you can notice that is important looking for an equilibrium between shape and prestressed both in the interior of membrane and on its boundaries.Mathematically the general approach, which is more difficult, concerns the case in which boundary elements are cables.What has been said leads to two boundary problems. The first one consists in finding, given the shape of the membrane, its prestressed stress tensor that verifies the equilibrium (direct approach). The second one concerns in finding, given the prestressed stress tensor of the membrane, its shape that verifies the equilibrium (dual approach).If a boundary with tension cables is considered both problems make more difficult.The principal result about the direct problem is that, in any case (that is, regardless of the kind of boundary used), a hyperbolic differential problem with Dirichlet boundary conditions is obtained.Moreover if you consider that, in case that cables boundary elements are taken in account they are characteristic curves for the differential equation, the direct problem is generally ill posed.The principal result about the dual problem is that, in any case (that is, regardless of the kind of boundary used), an elliptical differential problem with Dirichlet boundary conditions is obtained; it means considering a problem generally well posed.To be more precise, if no cable is taken in account on membrane boundary, dual problem always returns an unique shape of membrane for each given tensions stress tensor (elliptical Dirichlet problem).On the other hand the general dual problem (with cables) has a "no classical" formulation. In fact along the cable the unknown of the problem has contemporaneously to verify two conditions: one Dirichlet condition and other one (not standard) on the second derivatives of the membrane shape.In the report a numerical method of resolution is presented. It consists on defining a "residual vector" that, once minimized, returns the nodal values of the membrane along the cables.
94

Contribucions als agorismes de punt interior en mètodes iteratius per a sistemes d'equacions usant regularitzacions quadràtiques

Cuesta Andrea, Jordi 29 September 2009 (has links)
Els mètodes de punt interior per a programació lineal proporcionen algorismes de complexitat polinòmica, que els fa ser molt eficients en l’optimització a gran escala. Aquests algorismes utilitzen el mètode de Newton per a convertir les equacions d’òptim del problema, que són no lineals, en un sistema d’equacions lineals, que solen resoldre’s aplicant factorizacions de matrius esparses. En aquells casos particulars en els quals el problema té una estructura especial, com ara en els problemes d’optimització en xarxes multiarticle, es pot aprofitar per millorar l’eficiència de l’algorisme. Aquests problemes de xarxes pertanyen a la família més general de problemes primals bloc-angulars. El punt de partida d’aquesta tesi va ser un fet empíric: l’observació del millor comportament computacional d’un algorisme especialitzat de punt inferior per a problemes bloc-angulars quan en la funció objectiu figurem termes quadràtics. Aquest algorisme utilitza factoritzacions de matrius per resoldre la part de les equacions associades a la zarza i el mètode del gradient conjugat precondicional per resoldre les equacions asociadse a les restriccions d’acoblament. Llavors l’objectiu original va ser buscar alguna forma d’aproximar un problema lineal per un quadràtic de manera que s’explotés el fet experimental observat sense perjudicar la convergència del problema. Posteriorment el plantejament inicial es va amplificar amb el nou objectiu de demostrar la convergència del mètode, entre altres resultats teòrics. El marc teòric usat per poder formular matemàticament aquesta idea ha estat la regularització de la funció de barrera logarítmica associada al problema d’optimització, entenent com a tal la transformació de la funció de barrera original per una altra que inclou un terme quadràtic variable de pertorbació, que disminueix progressivament conforme l’algorisme s’atansa a l’òptim. Aqueste terme quadràtic converteix el problema lineal original en un de quadràtic, de forma que en les primeres iteracions aprofitem el comportament empíric abans esmentat i, a mesura que progressa l’algorisme, el terme quadràtic esdevé negligible, i el problema amb regularització quadràtica s’atansa al problema lineal original. La barrera regularitzada resulta ser auto-concordant, assegurant així la convergència del mètode de punt interior.
95

Public Transport Improvement Policies: Assessment Of The Role Of Route And Fare Integration, Modal Reorganization With Special Emphasis To Izmir

Oncu, Ayca Mevlude 01 December 2007 (has links) (PDF)
Public transport improvement and new public transport management approaches are accepted as the most effective tools in order to cope with the urban transportation problem threatening sustainable urban life and efficient functioning of urban areas. The need for new solutions to replace, or support, costly new capacities created two new concepts at the two ends of the transportation phenomenon / Travel Demand Management (TDM) on the demand side and Transportation System Management (TSM) at the supply side. The main aim of this thesis is to show whether such public transport improvement policies and measures can make a difference in urban transport and traffic, and contribute to the attainment of a more sustainable transport system. In particular, it is intended to assess the role of fare and pricing policies together with modal reorganization strategies in improving public transport, and increasing its ridership.
96

Urban Transportation: Sections At Minus

Erol, Ezgi 01 February 2010 (has links) (PDF)
This thesis focuses on the underground transportation forms that began to emerge in city centers in the second half of the 20th century. Besides providing an illustration and evaluation of the selected case projects, the notions of speed and time are opened for discussion as significant concepts that interact to affect the physical formations both of cities and transport policies. The developments in urban transport technologies after the 1960s are also examined as leading factors in the development of today&rsquo / s multimodal and multilayered urban transportation hubs.
97

Nonlinear Mixed-effects Models and Nonparametric Inference. A Method Based on Bootstrap for the Analysis of Non-normal Repeated Measures Data in Biostatistical Practice.

El Halimi, Rachid 22 July 2005 (has links)
En la presente investigacion se presenta un "taller" de análisis avanzado de datos en el contexto de los modelos mixtos, con matrices estructuradas de varianzas-covarianzas de los efectos aleatorios y/o de los residuos. El ajuste de dichos modelos ha permitiedo poner de manifiesto ciertas preocupaciones por la sensibilidad de las inferencias respecto de las suposiciones del modelo, especialmente cuando no cumplen las hipótesis habituales sobre normalidad de residuos y de factores aleatorios. El propósito principal del trabajo ha sido el estudio de la validez del empleo de modelos mixtos no lineales para analizar datos de medidas repetidas y discutir la robustez del enfoque inferencial paramétrico basado en la aproximación propuesta por Lindstrom y Bates (1990), y proponer y evaluar posibles alternativas al mismo, basadas en la metodología bootstrap. Se discute además el mejor procedimiento para generar las muestras bootstrap a partir de datos longitudinales bajo modelos mixtos, y se realiza una adaptación de la metodología bootstrap a métodos de ajuste en dos etapas, como STS (Standard two-stage) y GTS (Global two-stage). Los resultados de simulación confirman que la aproximación paramétrica basada en la hipótesis de normalidad no es fiable cuando la distribución de la variable estudiada se aparta seriamente de la normal. En concreto, los intervalos de confianza aproximados basados en una aproximación lineal, y en general en los resultados asintóticos de la máxima verosimilitud, no son robustos frente a la desviación de la hipótesis de normalidad de los datos, incluso para tamaños muéstrales relativamente grandes. El método "bootstrap" proporciona un estimador de los parámetros, en términos de amplitud del intervalo y de su cobertura relativamente más adecuado que el método clásico, basado en la hipótesis de normalidad de la variable estudiada.
98

Optimización de los ensayos clinicos de farmacos mediante simulación de eventos discretos, su modelización, validación, verificación y la mejora de la calidad de sus datos

Monleón Getino, Toni 21 October 2005 (has links)
La tesis contiene 6 capítulos y esta dividida en 4 partes correspondientes a objetivos diferentes. La primera parte está dedicada a una revisión exhaustiva del estado de los ensayos clínicos de fármacos y los avances producidos en la simulación de los mismos desde 1996 cuando se presentaron las "guidelines" de simulación de ensayos clínicos sobre estas técnicas, escasamente utilizadas en España. Se ha incidido especialmente en los aspectos más relacionados con los modelos de acción farmacológica (farmacocinética y farmacodinamia). Gracias a los avances en las técnicas computacionales y estadísticas como son el uso de los modelos estadísticos lineales y no lineales mixtos de medidas repetidas, así como las herramientas de simulación discreta. Actualmente ya es posible la realización de simulaciones realistas, basadas en los modelos de acción de los fármacos, así como modelos de enfermedades que tienen presente la variabilidad biológica inter e intra-individual. En la segunda parte se ilustra el proceso de construcción real de modelos de simulación de ensayos clínicos utilizando la simulación de eventos discretos mediante el entorno LeanSim y el paquete estadístico SAS. LeanSim es una herramienta flexible de simulación de propósito general desarrollada en C/C++ y con orientación a objetos. Estas características hacen que LeanSim sea el entorno escogido para su adaptación a la simulación de ensayos clínicos. Se realiza una breve introducción a su uso en la simulación clínica y a la adaptación realizada a partir de un ensayo clínico de SIDA, presentando diferentes modelizaciones y adaptaciones computacionales novedosas como es el uso de "scrips" para la transferencia al simulador de los modelos lineales mixtos. En esta parte también se sistematiza la metodología de simulación estadística de ensayos clínicos, a tenor de la disparidad de metodologías encontradas en los diferentes artículos revisados y se especifica mediante la modelización de un ensayo clínico sobre artritis reumatoide, una metodología sobre la modelización con modelos mixtos, la construcción de modelos computacionales, la validación y verificación de los modelos. Después de una revisión bibliográfica, se incide especialmente en las técnicas de validación y verificación estadísticas de los modelos conceptuales y computacionales, presentando aportaciones novedosas basadas en intervalos de confianza asintóticos normales y boostrap, uso de réplicas de simulación durante la validación y uso del criterio de la variación porcentual de la función de verosimilitud para comparar el modelo conceptual con las diferentes réplicas obtenidas durante las simulaciones. En la tercera parte se presenta un nuevo sistema informático "Hipócrates" construido para mejorar la calidad de los datos de los ensayos clínicos y lograr buenos modelos conceptuales y de simulación, con toda su problemática asociada.En la cuarta parte se presentan diferentes experimentos de simulación de ensayos clínicos prospectivos y retrospectivos de Fases I a III, que ilustran la metodología presentada en los apartados precedentes, especialmente la modelización de ensayos con objetivos PK/PD u otros objetivos complejos, mediante el uso de modelos lineales y no lineales mixtos, así como la optimización de los objetivos de los mismos, su validación y verificación con las técnicas estadísticas presentadas anteriormente, realizando réplicas de simulación, su cálculo, el uso de intervalos de confianza y los criterios de validación/verificación basados en la función de verosimilitud. / OPTIMIZATION OF THE CLINICAL TRIALS OF MEDICAMENTS BY MEANS OF SIMULATION OF DISCREET EVENTS, MODELING, VALIDATION, MONITORING AND THE IMPROVEMENT OF THE QUALITY OF ITS INFORMATION. The possibility of performing complete simulations of clinical trials, based on pharmacological action models (PK, PD), has been considered since the advent of the computer era, as a tool to optimise their practical realisation. Thanks to the advances in computation technology and in discrete event simulation tools, today it is possible to perform realistic, large-scale clinical trial simulations in a regular basis using suitable tools of simulation.In this doctoral research, we illustrate the process of constructing realistic simulation models (repeated measures mixed models) using SAS and the LeanSim framework. LeanSim is an object-oriented general purpose simulation tool, developed in C/C++, with a process-interaction modelling approach. These characteristics of LeanSim make it very flexible, facilitating its adaptation to simulate clinical trials. Some clinical trials were simulated (Phase I to Phase III) retrospectively and prospectively, and a methodology to construct models of clinical trials and to simulate, validate and verify statistically them was established. A second part of this project was centred on the statistical and data analysis facets of model validation and verification, based on the percentual variation of likelihood criteria comparing the conceptual model and the simulation replications. Also new data management software, "Hipocrates", was developed to assure the quality of data in clinical trials.
99

Statistical modelling and analysis of summer very hot events in mainland Spain

Castellà Sánchez, Mercè 14 March 2014 (has links)
Extreme temperature events are of particular importance due to their severe impact on the environment, economy and the society. Focused on the uppermost percentiles of summer daily maximum (Tx) and minimum (Tn) temperatures,in this thesis a modelling and analysis of summer very hot days (VHD) and nights (VHN) over mainland Spain has been carried out applying the methodology of Point Process Approach based on Extreme Value Theory. It has been investigated whether large-scale variables of Sea Level Pressure, Sea Surface Temperature and soil moisture are associated to the occurrence and intensity of these exceptional events. Furthermore, the observed changes and trends in Tx and Tn extreme distribution have been analysed and different returns levels have been estimated. The link between the occurrence and the intensity of VHD and VHN with the large-scale anomalies has been demonstrated. Changes in extreme temperatures are generalized, but not homogeneous in space and time. / Els esdeveniments extrems de temperatura tenen una gran importància a causa del seu fort impacte al medi ambient, l'economia i la societat. Centrada en percentils elevats de temperatures màximes (Tx)i mínimes (Tn) diàries d'estiu, en aquesta tesi s’han modelitzat i analitzat els dies molt càlids(VHD) i les nits molt càlides (VHN)estivals a l'Espanya peninsular aplicant la metodologia de Point Process Approach basada en la Teoria dels Valors Extrems. S'ha investigat si les variables de gran escala de la pressió al nivell del mar,la temperatura superficial del mar i humitat del sòl estan associades amb l'ocurrència i la intensitat d'aquests esdeveniments excepcionals. A més, s'han analitzat els canvis i les tendències observades en la distribució d’extrems de Tx i Tni s’han estimat diferents nivells de reton. El vincle entre l'ocurrència i la intensitat dels VHDiVHN amb les anomalies de gran escala ha estat demostrat. Els canvis en les temperatures extremes són generalitzats, però no homogenis en l'espai i el temps.
100

Hypoxie-induzierte Spreading-Depression-Episoden in akuten medullären Hirnstammschnitten der Ratte / Hypoxia induced spreading depression episodes in acute medullare brainstem slices of the rat

Chaudhry, Umer 13 April 2011 (has links)
No description available.

Page generated in 0.3222 seconds