601 |
Outsourcing de recursos humanos: prácticas y factores de éxito.Romeu Crusat, Sergi 10 December 2015 (has links)
En l'actual entorn econòmic, les organitzacions busquen constantment noves formes de flexibilitat en el seu esforç per esdevenir competitives. Una de les avingudes cap a la flexibilització de les organitzacions és l'externalització o outsourcing d'alguns processos empresarials, tant si és amb l'objectiu de retallar costos com amb el d'adquirir experiència i saber fer d'organitzacions externes. La funció de recursos humans o alguns dels seus components també han estat subjectes a l'externalització des de fa ja temps (especialment processos de selecció o activitats de formació). No obstant això, la decisió sobre què externalitzar, com, quan, ia qui és una elecció no desproveïda de certs riscos. L'objectiu d'aquesta tesi és revisar els principals conceptes, lògica i reptes a l'externalització de la funció de recursos humans. Un cop revisada la literatura i proposta una conceptualització de l'outsourcing de recursos humans com a procés i identificant les seves diverses fases, el treball empíric de la tesi es dedica a identificar quins factors poden contribuir a l'èxit en tal procés. Es genera un qüestionari que pregunta per casos d'èxit i fracàs de processos d'outsourcing de recursos humans i les circumstàncies que l'envolten. L'anàlisi estadística dels resultats suggereix que no influeixen en l'èxit del procés factors com la funció, l'objectiu i la temporalitat. Per contra, sí que és important tenir en compte, entre altres, factors com la bona comunicació, l'elecció del proveïdor, el suport el departament de RRHH i no prioritzar el preu. Cal destacar que la majoria d'aquests factors són elements sobre els quals les empreses poden incidir quan implementen un procés de ORH i, per tant, la tesi conclou amb una sèrie de recomanacions per a la pràctica empresarial. / En el actual entorno económico, las organizaciones buscan constantemente nuevas formas de flexibilidad en su esfuerzo para devenir competitivas. Una de las avenidas hacia la flexibilización de las organizaciones es la externalización o outsourcing de algunos procesos empresariales, tanto si es con el objetivo de recortar costes como con el de adquirir experiencia y know-how de organizaciones externas. La función de recursos humanos o algunos de sus componentes también han estado sujetos a la externalización desde hace ya tiempo (especialmente procesos de selección o actividades de formación). Sin embargo, la decisión sobre qué externalizar, cómo, cuándo, y a quién es una elección no desprovista de ciertos riesgos. El objetivo de esta tesis es revisar los principales conceptos, lógica y retos a la externalización de la función de recursos humanos. Una vez revisada la literatura y propuesta una conceptualización del outsourcing de recursos humanos como proceso e identificando sus diversas fases, el trabajo empírico de la tesis se dedica a identificar qué factores pueden contribuir al éxito en tal proceso. Se genera un cuestionario que pregunta por casos de éxito y fracaso de procesos de outsourcing de recursos humanos y las circunstancias que lo rodean. El análisis estadístico de los resultados sugiere que no influyen en el éxito del proceso factores como la función, el objetivo y la temporalidad. Por el contrario, sí es importante tener en cuenta, entre otros, factores como la buena comunicación, la elección del proveedor, el apoyo el departamento de RRHH y no priorizar el precio. Hay que destacar que la mayoría de estos factores son elementos sobre los cuales las empresas pueden incidir cuando implementan un proceso de ORH y, por tanto, la tesis concluye con una serie de recomendaciones para la práctica empresarial. / n the current economic environment, organizations are constantly seeking new forms of flexibility in their efforts to become competitive. One of the avenues towards more flexible organizations is outsourcing or outsourcing of some business processes, whether it is aiming to cut costs and to gain experience and know-how from outside organizations. The human resources function or some of its components have also been subject to outsourcing for some time now (especially selection processes or training). However, the decision on what to outsource, how, when, and to whom election is not without certain risks. The objective of this thesis is to review the main concepts, logic and challenges to outsourcing HR function. After reviewing the literature and proposed a conceptualization of human resources outsourcing process and identifying its various phases, the empirical work of the thesis is dedicated to identify what factors may contribute to success in this process. A questionnaire asking about cases of success and failure of processes of human resources outsourcing and the circumstances surrounding it generates. Statistical analysis of the results suggests that not influence the success of factors such as the function, purpose or temporality. On the contrary, it is important to consider, among others, factors such as good communication, the choice of supplier, supporting the HR department and not prioritize the price. It notes that most of these factors are elements on which companies can influence when implementing a process of ORH and therefore, the thesis concludes with a series of recommendations for business practice
|
602 |
Morbilidad, utilización de recursos y costes sanitarios en la comarca del Baix EmpordàInoriza, José María 27 February 2015 (has links)
Los sistemas de atención sanitaria tienden en la actualidad a migrar de formas de organización fragmentadas por líneas o niveles, que al mismo tiempo compiten e intentan coordinarse entre sí, hacia formas que integran todos los ámbitos de la oferta asistencial bajo una misma organización, sea virtual o real. Se denominan habitualmente organizaciones sanitarias integradas.
La presente tesis incluye un conjunto de estudios que trata de analizar las necesidades asistenciales (morbilidad atendida) de la población de una comarca; comprender la utilización de recursos asistenciales realizada, incluyendo los costes derivados de la misma; al tiempo que mediante técnicas de modelización identificar pacientes con elevadas necesidades de cuidados con el objetivo de planificar e implementar una asistencia de calidad y un uso eficaz y eficiente de los recursos disponibles. / The trend of current healthcare systems is to move away from forms of organisation, which are fragmented by lines or levels, which both compete and try to coordinate, towards systems that integrate all types of care within the same organisation, be it virtual or real. These are usually referred to as Integrated Healthcare Organisations.
The present thesis includes a group of studies that together they consider how to analyse the healthcare needs of the population of a region (burden of disease); understand the actual utilisation of healthcare resources, including the costs derived from it; while at the same time, by means of predictive modelling, they identify patients with high needs of care with the aim of scheduling and implementing quality assistance and an effective and efficient use of the available resources.
|
603 |
Mechanisms triggering the recruitment of mast cell progenitors to the lung and regulation of mast cell degranulationZarnegar, Behdad January 2016 (has links)
Mast cells stem from the bone marrow and migrate via the blood as mast cell progenitors. Upon arrival in peripheral tissues, they develop into mast cells. These rare immune cells have numerous granules that contain large amounts of pro-inflammatory mediators. Mast cells accumulate at certain sites in the asthmatic lung, and once activated they release mediators that are thought to induce symptoms. In mouse models of allergic airway inflammation, the increase in lung mast cells in asthma can be mimicked and is mainly caused by the recruitment of mast cell progenitors to the lung. However, whether other types of lung inflammation stimulate the recruitment of mast cell progenitors to the lung was unknown until now. Here, using a murine model of influenza A virus infection, this type of virus was demonstrated to trigger an extensive recruitment of mast cell progenitors to the lung, most likely through the induction of VCAM-1 expression in the lung endothelium. Thereafter, some influenza-induced mast cell progenitors developed into an intermediate mast cell stage before they matured into mast cells. However, upon the resolution of inflammation, the mast cells that accumulated in the lung upon influenza infection were gradually lost. Because the recruitment of mast cell progenitors started early after influenza infection, the role of innate immune signals in inducing the recruitment of mast cell progenitors was addressed. The intranasal administration of either Poly I:C or IL-33 was sufficient to induce an increase in lung mast cell progenitors in a TLR3- or ST2-dependent fashion. However, the influenza-induced recruitment of mast cell progenitors to the lung occurred independently of TLR3 and ST2. VAAT/SLC10A4 is a member of the solute carrier family of proteins that is expressed in nerve cells and mast cells. In this study, murine VAAT was localized to mast cell granules and regulated the IgE/antigen-mediated release of granule-associated mediators and ATP. However, the absence of VAAT did not affect IgE/antigen-mediated de novo synthesis of cytokines and lipid mediators. Additionally, mice lacking VAAT had attenuated passive cutaneous anaphylaxis reactions and scratched less frequently in response to compound 48/80 injections, suggesting that VAAT regulates reactions for which mast cells are implicated in vivo.
|
604 |
Siniestralidad en seguros de consumo anual de las entidades de previsión social, La. Perspectiva probabilística y econométrica. Propuesta de un modelo econométrico neuronal para Cataluña.Torra Porras, Salvador 05 March 2004 (has links)
El objetivo perseguido en la presente Tesis Doctoral es presentar propuestas de modelización para la siniestralidad del sector de Mutualidades de Previsión Social de Cataluña (segmento no vida) desde una doble vertiente, probabilística y econométrica. Con esta finalidad tres organismos públicos han facilitado la información necesaria para la elaboración de la parte empírica: la Generalitat de Catalunya (Departamento de Trabajo), el Gobierno Vasco (Departamento de Trabajo) y la Dirección General de Seguros (D.G.S.). Así su estructura está claramente diferenciada: fundamentos y herramientas metodológicas, para la primera de ellas, y para la segunda, el estudio empírico realizado sobre el sector asegurador y de previsión social Español, en especial, Cataluña.Respecto a la parte metodológica su estructura es la siguiente, el capítulo 1, presenta los diferentes mecanismos de análisis económico-financiero existentes mediante el uso de ratios, sus debilidades, los nuevos avances y la simulación estadística como una herramienta más de análisis. En el capítulo 2 se ha realizado un esfuerzo por sistematizar una de las herramientas de mayor desarrollo en el análisis de datos, los modelos neuronales, desde tres vertientes: desde la óptica de su potencial en términos de modelización; la descripción de los modelos disponibles y en último lugar, por sus aplicaciones. El capítulo 3 es el último de esta parte metodológica, y en él se ha realizado una aproximación de los modelos neuronales al campo estadístico y econométrico. La estructura de la parte empírica es la siguiente. El capítulo 4 contiene las características básicas del sector asegurador Español (1991-1997) y del subsector de previsión social, desglosado por Comunidades Autónomas que poseen competencias propias en materia de Previsión Social (País Vasco (1990-1998) y Cataluña (1991-1997)) y aquellas que dependen directamente de la Dirección General de Seguros (D.G.S.) (1992-1997)). El capítulo 5 contiene el análisis de la siniestralidad no vida del sector de las Mutualidades de Previsión Social de Cataluña, con los datos oficiales que facilitan las entidades a la Administración Pública. Y finalmente, el capítulo 6 contiene varias aplicaciones de la metodología neuronal descrita.Las principales aportaciones son las siguientes:1. Desde la vertiente metodológica del análisis financiero mediante ratios, presentamos una síntesis de los avances en el diseño del modelo de ratio financiero.2. Utilización de herramientas de Simulación Estadística como soporte a la probabilización de ratios económico-financieros.3. Desde la vertiente empírica, las aportaciones son: a) El estudio de un sector económico poco analizado como es el sector de Mutualidades de Previsión Social de Cataluña. b) El análisis de la siniestralidad no vida anual a partir de los componentes aleatorios que la constituyen, número de siniestros y cuantía de cada siniestro.c) Obtención de márgenes mínimos de solvencia (MMS) por dos vías, Método de Monte-Carlo y probabilización del ratio de siniestralidad no vida, permitiendo su comparación.d) Características econométricas de las diferentes especificaciones del modelo de ratio.e) Propuesta de contrastes de forma funcional del modelo de ratio, a partir de la forma Funcional Generalizada de Box-Cox (FFG).f) Diferentes aplicaciones de la metodología neuronal. En primer lugar, utilización de los modelos neuronales para la identificación de la forma funcional del modelo de ratio. En segundo lugar, y una vez detectada la posible naturaleza no lineal del modelo de ratio, proponemos una modelización alternativa, el modelo neuronal de regresión generalizada (GRNN). En tercer lugar, proponemos una definición flexible de sector o norma representado por un modelo Multilayer feed-forward MLP(4:3). En último lugar, mediante los residuos del modelo neuronal definido (MLP(p:q)), obtenemos información del posicionamiento relativo de las entidades respecto al sector o benchmark flexible que nos permite proponer unos valores de "referencia" máximos para la siniestralidad de cada prestación. / The knowledge of how the insurance market behaves is a topic of great importance, according it future viability. The total losses associated with the company portfolio have a random component that should be kept in mind in it analysis. The principal objective of this work is to model the total claims amount of the mutual insurance sector in Catalonia (non life) according a probabilistic and econometric point of view. The structure of the study is clearly divided into two different parts. In the first part we present several methodological tools that can be applied to the analysis that we are carrying out; in the second one we present some results related with the application of the previous theory to a real insurance Catalonian database. In the methodological part, we highlight the definition of some ratios to summarize different financial analysis mechanisms; the effort to systematize one of the most famous methods of data analysis: the neural model, including its approach to the statistical field and econometrics. Concerning the empirical part, we emphasize the following aspects: the analysis of the basic characteristics of the Spanish insurance market (1991-1997) and the characteristics of the insurance mutual societies (by Autonomous Communities); the analysis of the non life total claims amount of the insurance mutual societies in Catalonia, and finally, the presentation of several applications of the neuronal methodology. The main empirical contributions are about the study of an economic sector not sufficiently studied before: the analysis of the total compensation starting from its random components, the frequency and severity of the claims; the definition of the minimum margins of solvency by using two methods: Method of MonteCarlo and the distribution of the ratio of the total non life claims amount; the specification of several statistical functions for this ratio; the formulation of some hypothesis contrasts, starting from the Generalized Functional form of Box-Cox and different applications of the neuronal methodology. We highlight the use of the neural model for the identification of the functional form of the ratio and the application of the Multilayer feed-forward model.
|
605 |
Sociedad capital riesgo como medio de financiación de la nueva empresa, LaLauroba Pérez, Ana M. 20 October 1998 (has links)
La actividad empresarial se enfrenta en estos momentos a un proceso de cambios revolucionarios que han provocado un crecimiento de la competencia: la globalización de los mercados; la a introducción y asimilación de los últimos avances tecnológicos y los movimientos de integración económica entre países constituyen sus motores principales. Como consecuencia, los valores y objetivos que deben alcanzar las empresas, y de los que va a depender, en definitiva, su propia supervivencia, se han visto alterados en la misma medida y proporción.Entre dichos valores, la innovación va a ser el vehículo que le permitirá mantener un elemento diferencial y una ventaja comparativa con respecto a su competencia, pero también deberá asumir un creciente nivel creciente de riesgo en la de toma de decisiones. En efecto, el proceso de innovación y renovación continua significa la puesta en práctica de actividades más arriesgadas, puesto que se desconocen cuestiones clave como pueden ser el grado de aceptación por parte del mercado, la capacidad de la propia estructura empresarial para llevar adelante el proyecto de una forma exitosa o la reacción que provocará en la competencia. ¿Cómo afecta este nuevo panorama a las pequeñas y medianas empresas (PYMES)? Es sabido que las PYMES tienen una gran importancia en la economía de cualquier país que, como el nuestro, haya alcanzado un grado de desarrollo importante y a nuestro juicio, resultan fundamentales para lograr un crecimiento material estable que atempere las fases del ciclo económico, en particular cuando se producen tendencias depresivas. Sin embargo, no es menos cierto que las PYMES encuentran ciertas dificultades inherentes a la naturaleza económica de sus operaciones, en especial por lo que respecta al aspecto financiero, y que pueden comprometer su supervivencia. En efecto, un análisis de los balances de dichas empresas permiten comprobar que sus estructuras financieras tienden a desviar su centro de gravedad hacia fuentes de financiación ajenas a ellas mismas, generando un coeficiente de endeudamiento capaz de crear situaciones límite en momentos delicados. A esta coyuntura se añaden las dificultades de acceso a los mercados de capitales, por lo que es habitual recurrir a recursos a corto plazo. Junto con las debilidades estructurales del propio contexto económico, estas dificultades limitan la competitividad de las PYMES y dificultan su inserción en el mercado internacional. Ante dicho panorama, solamente una apuesta clara por la innovación puede permitir a las empresas pequeñas y medianas destacar entre sus competidoras y ofrecer un producto con identidad propia. Este es el contexto en el que se inscribe la Tesis Doctoral que vamos a desarrollar a continuación, y cuyo objetivo fundamental consiste en el análisis de las posibilidades que ofrece la actividad del capital riesgo en España, para convertirse en un instrumento alternativo real, en el sentido de ofrecer el soporte técnico y de gestión, además de la financiación necesaria, para satisfacer las necesidades que se le plantean a la nueva empresa y en especial a las PYMES. La presente Tesis Doctoral ha sido desarrollada en ocho capítulos, divididos en tres partes. En la primera parte (Capítulos 1 a 3) comenzamos analizando el concepto de innovación así como los factores determinantes de la existencia de procesos innovadores en el seno de las empresas. A lo largo de los capítulos segundo y tercero, pasaremos a describir la génesis de una operación típica de capital riesgo, deteniéndonos, de una manera muy genérica, en el análisis de los distintos elementos e instrumentos que conforman una transacción-tipo. En la segunda parte (Capítulo 4), pasamos revista al esfuerzo realizado desde los poderes públicos para el desarrollo de las pequeñas y medianas empresas españolas y para el fomento de la fórmula del capital riesgo como instrumento válido de ayuda a las mismas. En la tercera parte (Capítulos 5 a 8) de la Tesis Doctoral analizaremos la viabilidad de la fórmula del capital riesgo para dar respuesta a los retos y necesidades planteados a la nueva empresa. Primero (Capítulo 5) la cuestión se aborda desde el punto de vista de los criterios aplicados, por parte de las entidades de capital riesgo, a la selección de los proyectos en los que van a invertir y que conformarán, por lo tanto, sus carteras. En los capítulos 6 y 7 se lleva a cabo un trabajo de investigación cuyo objetivo consiste en validar algunos aspectos clave de las teorías expuestas en el capítulo anterior con relación a la composición de las carteras y el análisis y control del riesgo llevado a cabo por las entidades de capital riesgo en España. El capítulo 8 recoge las conclusiones de la Tesis Doctoral, agrupadas en cuatro apartados. La Tesis se completa con el Anexo correspondiente a la tabulación de los datos objeto de nuestro estudio y la Bibliografía consultada.
|
606 |
Aportaciones al análisis y la evaluación económica de los servicios públicos en la Unión Europea desde la perspectiva de los ciudadanos como consumidoresFernández Gutiérrez, Marcos 13 May 2011 (has links)
La desregulación y apertura a la competencia de los servicios públicos de infraestructura, clave para el proceso de integración económica europea, pretendía beneficiar unívocamente a los ciudadanos en su papel como consumidores, a partir de su aprovechamiento óptimo y homogéneo de las posibilidades de elección introducidas en el mercado. Sin embargo, actualmente, la Comisión Europea se replantea el diseño de la regulación de estos servicios desde el punto de vista de su beneficio sobre los ciudadanos como consumidores. El objetivo principal de esta tesis es, en dicho contexto, evaluar las políticas de regulación de los servicios públicos de infraestructura desde la perspectiva de los ciudadanos, aspecto insuficientemente analizado hasta la fecha. Para ello, se desarrolla un análisis microeconométrico de las decisiones y percepciones de los ciudadanos ante estos servicios, a partir del contraste de sus preferencias reveladas y preferencias declaradas en tres grandes países europeos: España, Reino Unido e Italia. Los resultados obtenidos reflejan la heterogeneidad de los ciudadanos como consumidores, ligada a sus condicionantes socioeconómicos. Derivado de ello, se observa cómo las reformas han tenido efectos duales, particularmente en el sector de las telecomunicaciones, generando determinados problemas de insatisfacción, participación y confianza en aquellos ciudadanos particularmente vulnerables como consumidores. / Deregulation and opening to competition of public infrastructure services, key to European economic integration, would ostensibly benefit all the citizens, as consumers, assuming they took homogeneously optimal choices in the market. However, the European Commission is currently rethinking the design of the regulation of these services from the point of view of benefits for citizens as consumers. The main objective of this thesis is, in this context, to evaluate the regulatory policies of these services from the citizens’ perspective, which has been insufficiently analyzed to date. To do so, a microeconometric analysis of citizens’ decisions and perceptions towards these services is performed, through contrasting their revealed and stated preferences for three large European countries: Italy, Spain and the United Kingdom. The results reflect the heterogeneity of citizens as consumers, linked to their socio-economic conditions. On this basis, it can be observed how the reforms have had dual effects on citizens, particularly in the telecommunications sector. Thus, certain problems of dissatisfaction, low participation and low confidence have been generated among those citizens particularly vulnerable as consumers.
|
607 |
Aportaciones al análisis económico del sector públicoRevuelta López, Julio 23 April 2012 (has links)
Las decisiones de política económica tomadas por el sector público tienen importantes repercusiones sobre el sistema económico. Por una parte, la acción pública tiene un efecto directo sobre la economía a través de la obtención de ingresos públicos y el gasto de los mismos. Por otra, la regulación de las actividades de los agentes afecta a sus decisiones al alterar la estructura de incentivos a la que se ven sometidos. Es altamente interesante evaluar, de forma teórica y empírica, el impacto de las acciones públicas sobre la economía. Por el motivo anterior, y dada la imposibilidad de analizar todas las políticas económicas del sector público por completo, la presente tesis doctoral tiene como objetivo principal realizar una serie de aportaciones a la evaluación del impacto de la acción pública sobre el sistema económico. Del análisis se derivan conclusiones aplicables a la política económica pública.
|
608 |
La Dinámica de la estructura de capital. Evidencia para las empresas industriales españolaVendrell Vilanova, Anna 20 June 2007 (has links)
El presente trabajo de investigación aborda el estudio de los factores determinantes del endeudamiento empresarial a través de las variables de tipo socio-económico más relevantes. Este estudio se realiza de forma exhaustiva al considerar tanto el nivel de endeudamiento total, como su estructura de madurez y los diferentes tamaños empresariales de pequeña, mediana y gran empresa. Al mismo tiempo que realiza un estudio comparado del grado de explicación aportado por las dos principales teorías financieras que coexisten en la actualidad acerca de la decisión de endeudamiento. Por un lado, la teoría del equilibrio estático o del trade-off según la cual las decisiones de endeudamiento dependen de la compensación entre los beneficios y los costes de la deuda para alcanzar un nivel óptimo o una estructura financiera óptima de la empresa. Y, por otro lado, la teoría de la jerarquía de preferencias o del pecking order según la cual las empresas tienen un orden de preferencia a la hora de elegir las fuentes de financiación, empezando por los recursos internos, siguiendo por la deuda y, finalizando por el capital. Desde su óptica, las empresas no buscan un óptimo de endeudamiento sino que van haciendo emisiones cuando los recursos internos no son suficientes y en función de sus oportunidades de inversión. Los modelos utilizados para el contraste de hipótesis se han estimado con una muestra de 1.320 empresas manufactureras españolas que constituyen un panel incompleto de empresas, proporcionada por la Encuesta sobre Estrategias Empresariales (ESEE), para el período 1993-2001. El trabajo empírico se inicia con un estudio preliminar descriptivo y uno multivariante Cluster para conocer los diferentes patrones de endeudamiento de las empresas. Y se completa con la aplicación de un modelo multivariante de regresión logística del que se obtiene como resultado que la teoría de mayor cumplimiento es la del pecking-order con la constatación, además, de que las variables de mayor importancia para la misma, la rentabilidad económica y el crecimiento/inversión, son las de mayor peso para explicar el endeudamiento, junto con la variable de las garantías patrimoniales. Finalmente, otro de los resultados que se obtiene es el de la existencia de restricción de acceso a la financiación bancaria a largo plazo en las empresas pyme.
|
609 |
Aportaciones a la representabilidad de juegos simples y al cálculo de soluciones de esta clase de juegosPuente del Campo, M. Albina (María Albina) 11 April 2000 (has links)
La memoria está enmarcada en el contexto de la Teoría de Juegos Simples, aunque varios de los resultados obtenidos pueden ser trasladados a campos como la Electrónica o Fiabilidad de Sistemas. Está estructurada en cinco capítulos. El primero de ellos es un resumen de los principales resultados necesarios para el seguimiento del trabajo.Partiendo de los resultados obtenidos por Hu en el campo de la Electrónica, en el 2º capítulo determinamos el máximo porcentaje permitido en la variación de los pesos y la cuota de una representación estricta de un juego de mayoría ponderada que hace que el juego no cambie. Se mejoran los resultados existentes, a la vez que se definen los conceptos de amplitud, amplitud coalicional y amplitud coalicional con suma de pesos constante de representaciones estrictas de juegos de mayoría ponderada. Determinamos la cuota que hace que la amplitud sea máxima cuando los pesos están fijados.En el capítulo tercero partimos de los resultados obtenidos por Carreras y Freixas en el estudio y caracterización de los juegos simples completos, para definir y caracterizar los juegos completos con mínimo. A partir de la relación de desplazamiento y, teniendo en cuenta que a jugadores indiferentes les corresponde el mismo vector de pago, consideramos el vector normalizado del nucleolo y lo obtenemos como solución de un sistema determinado de ecuaciones.Dado que en un juego completo sin clases triviales el núcleo y el pre-núcleo coinciden y que ambos respetan la relación de desplazamiento, podemos definir el núcleo maximal de un juego completo y caracterizar su maximalidad en función de los jugadores con veto y de los jugadores nulos.Proporcionamos un método para calcular los semivalores, que es suficiente realizarlo para cada I-clase, puesto que jugadores indiferentes tienen asociado el mismo semivalor, y a su vez, el semivalor de una I-clase está definido aditivamente a partir de los semivalores individuales.El cuarto capítulo está dedicado al cálculo de la dimensión de ciertos juegos simples. En el primer bloque determinamos la dimensión de los juegos completos con mínimo. Como consecuencia inmediata de este resultado se deduce que para todo natural, n, existe un juego completo (con mínimo) cuya dimensión es n. Este hecho demuestra que la complejidad de la dimensión del juego no está directamente relacionada con que la relación de desplazamiento sea total.En el segundo bloque se establecen de nuevo conexiones con la Fiabilidad. Las dos clases de juegos que estudiamos aquí pueden interpretarse como un caso particular de los juegos simples compuestos, y que denominamos composición de juegos de unanimidad vía individualismo y composición de juegos individualistas vía unanimidad. Ambos generan juegos simples de cualquier dimensión.La dimensión obtenida para composición de juegos de unanimidad vía individualismo nos permite generar juegos simples monótonos de dimensión exponencial y mejorar los resultados existentesEn el capítulo quinto definimos y caracterizamos mediante coeficientes ponderados a los semivalores para juegos simples, estudiando su comportamiento ante una serie de postulados y paradojas. Estos coeficientes de ponderación nos permitirán definir los semivalores binomiales y calcularlos a partir de la extensión multilineal del juego. Este resultado podrá extenderse al resto de los semivalores teniendo en cuenta que todo semivalor es combinación lineal de n semivalores binomiales linealmente independientes. Finalmente presentamos una serie de aplicaciones de los semivalores a la Fiabilidad de Sistemas.
|
610 |
Órdenes de experimentación en diseños factorialesCorrea Espinal, Alexander Alberto 21 June 2007 (has links)
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes: 1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación. 2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador. El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores. Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.Estos métodos son:- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo. - Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas. En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema. / A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems: 1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive. 2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors. When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035) The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentationand/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis. Chapter 3 presents an original procedure for finding run orders for 2 level factorial designswith the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors. This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods. For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties. A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
|
Page generated in 0.0301 seconds