Spelling suggestions: "subject:"ariable"" "subject:"aariable""
561 |
Monte Carlo methods for sampling high-dimensional binary vectors / Monte Carlo séquentiel pour le choix de modèle bayésien : théorie et méthodesSchäfer, Christian 14 November 2012 (has links)
Cette thèse est consacrée à l'étude des méthodes de Monte Carlo pour l'échantillonnage de vecteurs binaires de grande dimension à partir de lois cibles complexes. Si l'espace-état est trop grand pour une énumération exhaustive, ces méthodes permettent d'estimer l’espérance d’une loi donnée par rapport à une fonction d'intérêt. Les approches standards sont principalement basées sur les méthodes Monte Carlo à chaîne de Markov de type marche aléatoire, où la loi stationnaire de la chaîne est la distribution d’intérêt et la moyenne de la trajectoire converge vers l’espérance par le théorème ergodique. Nous proposons un nouvel algorithme d'échantillonnage basé sur les méthodes de Monte Carlo séquentielles qui sont plus robustes au problème de multimodalité grâce à une étape de recuit simulé. La performance de l'échantillonneur de Monte Carlo séquentiel dépend de la capacité d’échantillonner selon des lois auxiliaires qui sont, en un certain sens, proche à la loi de l'intérêt. Le travail principal de cette thèse présente des stratégies visant à construire des familles paramétriques pour l'échantillonnage de vecteurs binaires avec dépendances. L'utilité de cette approche est démontrée dans le cadre de sélection bayésienne de variables et l'optimisation combinatoire des fonctions pseudo-booléennes. / This thesis is concerned with Monte Carlo methods for sampling high-dimensional binary vectors from complex distributions of interest. If the state space is too large for exhaustive enumeration, these methods provide a mean of estimating the expected value with respect to some function of interest. Standard approaches are mostly based on random walk type Markov chain Monte Carlo, where the equilibrium distribution of the chain is the distribution of interest and its ergodic mean converges to the expected value. We propose a novel sampling algorithm based on sequential Monte Carlo methodology which copes well with multi-modal problems by virtue of an annealing schedule. The performance of the proposed sequential Monte Carlo sampler depends on the ability to sample proposals from auxiliary distributions which are, in a certain sense, close to the current distribution of interest. The core work of this thesis discusses strategies to construct parametric families for sampling binary vectors with dependencies. The usefulness of this approach is demonstrated in the context of Bayesian variable selection and combinatorial optimization of pseudo-Boolean objective functions.
|
562 |
Mathematical analysis of models of non-homogeneous fluids and of hyperbolic equations with low regularity coefficients / Analyse mathématique des modèles de fluids non-homogènes et d'équations hyperboliques à coefficients peu réguliersFanelli, Francesco 28 May 2012 (has links)
Cette thèse est consacrée à l'étude des opérateurs strictement hyperboliques à coefficients peu réguliers, aussi bien qu'à l'étude du système d'Euler incompressible à densité variable. Dans la première partie, on montre des estimations a priori pour des opérateurs strictement hyperboliques dont les coefficients d'ordre le plus grand satisfont une condition de continuité log-Zygmund par rapport au temps et une condition de continuité log-Lipschitz par rapport à la variable d'espace. Ces estimations comportent une perte de dérivées qui croît en temps. Toutefois, elles sont suffisantes pour avoir encore le caractère bien posé du problème de Cauchy associé dans l'espace H^inf (pour des coefficients du deuxième ordre ayant assez de régularité).Dans un premier temps, on considère un opérateur complet en dimension d'espace égale à 1, dont les coefficients du premier ordre étaient supposés hölderiens et celui d'ordre 0 seulement borné. Après, on traite le cas général en dimension d'espace quelconque, en se restreignant à un opérateur de deuxième ordre homogène: le passage à la dimension plus grande exige une approche vraiment différente. Dans la deuxième partie de la thèse, on considère le système d'Euler incompressible à densité variable. On montre son caractère bien posé dans des espaces de Besov limites, qui s'injectent dans la classe des fonctions globalement lipschitziennes, et on établit aussi des bornes inférieures pour le temps de vie de la solution ne dépendant que des données initiales. Cela fait, on prouve la persistance des structures géométriques, comme la régularité stratifiée et conormale, pour les solutions de ce système. À la différence du cas classique de densité constante, même en dimension 2 le tourbillon n'est pas transporté par le champ de vitesses. Donc, a priori on peut s'attendre à obtenir seulement des résultats locaux en temps. Pour la même raison, il faut aussi laisser tomber la structure des poches de tourbillon. La théorie de Littlewood-Paley et le calcul paradifférentiel nous permettent d'aborder ces deux différents problèmes. En plus, on a besoin aussi d'une nouvelle version du calcul paradifférentiel, qui dépend d'un paramètre plus grand que ou égal à 1, pour traiter les opérateurs à coefficients peu réguliers. Le cadre fonctionnel adopté est celui des espaces de Besov, qui comprend en particulier les ensembles de Sobolev et de Hölder. Des classes intermédiaires de fonctions, de type logarithmique, entrent, elles aussi, en jeu / The present thesis is devoted both to the study of strictly hyperbolic operators with low regularity coefficients and of the density-dependent incompressible Euler system. On the one hand, we show a priori estimates for a second order strictly hyperbolic operator whose highest order coefficients satisfy a log-Zygmund continuity condition in time and a log-Lipschitz continuity condition with respect to space. Such an estimate involves a time increasing loss of derivatives. Nevertheless, this is enough to recover well-posedness for the associated Cauchy problem in the space $H^infty$ (for suitably smooth second order coefficients).In a first time, we consider acomplete operator in space dimension $1$, whose first order coefficients were assumed Hölder continuous and that of order $0$only bounded. Then, we deal with the general case of any space dimension, focusing on a homogeneous second order operator: the step to higher dimension requires a really different approach. On the other hand, we consider the density-dependent incompressible Euler system. We show its well-posedness in endpoint Besov spaces embedded in the class of globally Lipschitz functions, producing also lower bounds for the lifespan of the solution in terms of initial data only. This having been done, we prove persistence of geometric structures, such as striated and conormal regularity, for solutions to this system. In contrast with the classical case of constant density, even in dimension $2$ the vorticity is not transported by the velocity field. Hence, a priori one can expect to get only local in time results. For the same reason, we also have to dismiss the vortex patch structure. Littlewood-Paley theory and paradifferential calculus allow us to handle these two different problems .A new version of paradifferential calculus, depending on a parameter $ggeq1$, is also needed in dealing with hyperbolic operators with nonregular coefficients. The general framework is that of Besov spaces, which includes in particular Sobolev and Hölder sets. Intermediate classes of functions, of logaritmic type, come into play as well
|
563 |
Évaluation de l'effet des interventions en santé : intérêt des études observationnelles et méthodes d'analyse pour maîtriser le biais d'indication / The evaluation of health interventions : relevance of observational studies and methods to control for confounding by indicationLaborde-Castérot, Hervé 09 December 2016 (has links)
La médecine fondée sur les preuves a conféré à l’essai contrôlé randomisé (ECR) le plus haut niveau de preuve dans l’évaluation de l’effet des médicaments, et par extension de toute intervention en santé. Cependant, le recours aux études observationnelles s’avère également nécessaire (i) pour conforter, en situation réelle, les résultats issus des ECR dont la validité externe est limitée, (ii) dans des situations, notamment lorsqu’il s’agit d’interventions complexes, où l’ECR n’est pas toujours réalisable pour des questions éthiques et/ou organisationnelles. Toutefois, les études observationnelles sont sujettes à différents types de biais, et notamment au biais d’indication. Ce travail de thèse explore les différentes techniques d’analyse statistique des résultats permettant de maîtriser ce biais. Dans une première partie, les aspects théoriques ont été abordés. Les différentes techniques disponibles ont été identifiées, analysées et comparées : les techniques d’ajustement multivarié, celles utilisant un score de propension (SP) et celles utilisant une variable instrumentale (VI). Pour approfondir les connaissances sur la question, une revue systématique de la littérature a été effectuée. Elle a mis en évidence la faible concordance entre les résultats obtenus en utilisant un SP et ceux obtenus en utilisant une VI, lorsque ces deux techniques étaient utilisées dans une même étude pour évaluer la même intervention. Dans une seconde partie, l’utilisation de SP et/ou VI a été testée dans trois exemples d’évaluation d’interventions complexes à partir de données de pratiques courantes recueillies dans le cadre de deux études observationnelles de cohorte : (i) l’évaluation de l’effet d’un réseau de soins spécialisé dans l’insuffisance cardiaque (IC) sur la mortalité ; (ii) l’évaluation de l’effet des stratégies médicamenteuses appropriées dans l’IC sur la mortalité ; (iii) l’évaluation de l’effet des stratégies antithrombotiques chez les patients hémodialysés sur le risque hémorragique. / Evidence-based medicine placed randomized controlled trials (RCT) at the highest level of evidence to evaluate the effects of medications and, by extension, of all health interventions. Nevertheless, observational studies are necessary (i) to support, in real-world settings, the results of RCTs, the external validity of which is limited, and (ii) in situations where RCTs are not feasible for ethical or practical reasons, particularly when evaluating complex interventions. However, observational studies are particularly prone to confounding by indication. This thesis focuses on analytical methods to reduce this bias. In its first part, the theoretical aspects were addressed. Available methods were identified, reviewed and compared: multivariate adjustment methods, methods using a propensity score (PS) and methods using an instrumental variable (IV). To further knowledge on this issue, a systematic literature review was performed. This review revealed that more and more observational studies simultaneously use PS and IV approaches to evaluate the same intervention, often leading to nonconcordant results that may be dif?cult to interpret. In a second part, the use of PS and/or VI methods was tested in three evaluations of complex interventions in real-world settings, using data from two cohort studies: (i) to evaluate the effectiveness on mortality of a community-based multidisciplinary disease management programme for heart failure (HF) patients; (ii) to evaluate the effectiveness of recommended drug prescriptions on mortality in patients with HF; (iii) to evaluate the effect of antiplatelet and anticoagulant therapies on the risk of major bleeding events in chronic hemodialysis patients
|
564 |
Identification récursive de systèmes continus à paramètres variables dans le temps / Recursive identification of continuous-time systems with time-varying parametersPadilla, Arturo 05 July 2017 (has links)
Les travaux présentés dans ce mémoire traitent de l'identification des systèmes dynamiques représentés sous la forme de modèles linéaires continus à paramètres variant lentement au cours du temps. La complexité du problème d'identification provient d'une part du caractère inconnu de la loi de variation des paramètres et d'autre part de la présence de bruits de nature inconnue sur les signaux mesurés. Les solutions proposées s'appuient sur une combinaison judicieuse du filtre de Kalman en supposant que les variations des paramètres peuvent être représentées sous la forme d'une marche aléatoire et de la méthode de la variable instrumentale qui présente l'avantage d'être robuste vis à vis de la nature des bruits de mesure. Les algorithmes de type récursif sont développés dans un contexte d'identification en boucle ouverte et en boucle fermée. Les différentes variantes se distinguent par la manière dont est construit la variable instrumentale. Inspirée de la solution développée pour les systèmes linéaires à temps invariant, une construction adaptative de la variable instrumentale est suggérée pour pouvoir suivre au mieux l'évolution des paramètres. Les performances des méthodes développées sont évaluées à l'aide de simulations de Monte Carlo et montrent la suprématie des solutions proposées s'appuyant sur la variable instrumentale par rapport celles plus classiques des moindres carrés récursifs. Les aspects pratiques et d'implantation numérique sont d'une importance capitale pour obtenir de bonnes performances lorsque ces estimateurs sont embarqués. Ces aspects sont étudiés en détails et plusieurs solutions sont proposées non seulement pour robustifier les estimateurs vis à vis du choix des hyper-paramètres mais également vis à vis de leur implantation numérique. Les algorithmes développés sont venus enrichir les fonctions de la boîte à outils CONTSID pour Matlab. Enfin, les estimateurs développés sont exploités pour faire le suivi de paramètres de deux systèmes physiques : un benchmark disponible dans la littérature constitué d'un filtre électronique passe-bande et une vanne papillon équipant les moteurs de voiture. Les deux applications montrent le potentiel des approches proposées pour faire le suivi de paramètres physiques variant lentement dans le temps / The work presented in this thesis deals with the identification of dynamic systems represented through continuous-time linear models with slowly time-varying parameters. The complexity of the identification problem comes on the one hand from the unknown character of the parameter variations and on the other hand from the presence of noises of unknown nature on the measured signals. The proposed solutions rely on a judicious combination of the Kalman filter assuming that the variations of the parameters can be represented in the form of a random walk, and the method of the instrumental variable which has the advantage of being robust with respect to the nature of the measurement noises. The recursive algorithms are developed in an open-loop and closed-loop identification setting. The different variants are distinguished by the way in which the instrumental variable is built. Inspired by the solution developed for time-invariant linear systems, an adaptive construction of the instrumental variable is suggested in order to be able to follow the evolution of the parameters as well as possible. The performance of the developed methods are evaluated using Monte Carlo simulations and show the supremacy of the proposed solutions based on the instrumental variable compared with the more classical least squares based approaches. The practical aspects and implementation issues are of paramount importance to obtain a good performance when these estimators are used. These aspects are studied in detail and several solutions are proposed not only to robustify the estimators with respect to the choice of hyperparameters but also with respect to their numerical implementation. The algorithms developed have enhanced the functions of the CONTSID toolbox for Matlab. Finally, the developed estimators are considered in order to track parameters of two physical systems: a benchmark available in the literature consisting of a bandpass electronic filter and a throttle valve equipping the car engines. Both applications show the potential of the proposed approaches to track physical parameters that vary slowly over time
|
565 |
Identification of rigid industrial robots - A system identification perspective / Identification de robots industriels rigides – Apport des méthodes de l’identification de systèmesBrunot, Mathieu 30 November 2017 (has links)
L’industrie moderne fait largement appel à des robots industriels afin de réduire les coûts, ou encore améliorer la productivité et la qualité par exemple. Pour ce faire, une haute précision et une grande vitesse sont simultanément nécessaires. La conception de lois de commande conformes à de telles exigences demande une modélisation mathématique précise de ces robots. A cette fin, des modèles dynamiques sont construits à partir de données expérimentales. L’objectif de cette thèse est ainsi de fournir aux ingénieurs roboticiens des outils automatiques pour l’identification de bras robotiques. Dans cette perspective, une analyse comparative des méthodes existantes pour l’identification de robot est réalisée. Les avantages et inconvénients de chaque méthode sont ainsi mis en exergue. À partir de ces observations, les contributions sont articulées selon trois axes. Premièrement, l’étude porte sur l’estimation des vitesses et accélérations des corps du robot à partir de la position mesurée. Ces informations sont en effet nécessaires à la construction du modèle. La méthode usuelle est basée sur prétraitement "sur mesure" qui requière une connaissance fiable des bande-passantes du système, alors que celui-ci est encore inconnu. Pour surmonter ce dilemme, nous proposons une méthode capable d’estimer les dérivées automatiquement sans réglage préalable par l’utilisateur. Le deuxième axe concerne l’identification du contrôleur. Sa connaissance est en effet requise par la grande majorité des méthodes d’identification. Malheureusement, pour des raisons de propriété industrielle, il n’est pas toujours accessible. Pour traiter ce problème, deux méthodes sont introduites. Leur principe de base est d’identifier la loi de commande dans un premier temps avant d’identifier le modèle dynamique du bras robotique dans un second temps. La première méthode consiste à identifier la loi de commande de manière paramétrique, alors que la seconde fait appel à une identification non-paramétrique. Finalement, le troisième axe porte sur le réglage "sur mesure" du filtre decimate. L’identification du filtre de bruit est introduite en s’inspirant des méthodes développées par la communauté d’identification de systèmes. Ceci permet l’estimation automatique des paramètres dynamiques avec de faibles covariances tout en apportant une connaissance concernant la circulation du bruit à travers le système en boucle-fermée. Toutes les méthodes proposées sont validées sur un robot industriel à six degrés de liberté. Des perspectives sont esquissées pour de futurs travaux portant sur l’identification de systèmes robotiques, voire d’autres applications. / In modern manufacturing, industrial robots are essential components that allow saving cost, increase quality and productivity for instance. To achieve such goals, high accuracy and speed are simultaneously required. The design of control laws compliant with such requirements demands high-fidelity mathematical models of those robots. For this purpose, dynamic models are built from experimental data. The main objective of this thesis is thus to provide robotic engineers with automatic tools for identifying dynamic models of industrial robot arms. To achieve this aim, a comparative analysis of the existing methods dealing with robot identification is made. That allows discerning the advantages and the limitations of each method. From those observations, contributions are presented on three axes. First, the study focuses on the estimation of the joint velocities and accelerations from the measured position, which is required for the model construction. The usual method is based on a home-made prefiltering process that needs a reliable knowledge of the system’s bandwidths, whereas the system is still unknown. To overcome this dilemma, we propose a method able to estimate the joint derivatives automatically, without any setting from the user. The second axis is dedicated to the identification of the controller. For the vast majority of the method its knowledge is indeed required. Unfortunately, for copyright reasons, that is not always available to the user. To deal with this issue, two methods are suggested. Their basic philosophy is to identify the control law in a first step before identifying the dynamic model of the robot in a second one. The first method consists in identifying the control law in a parametric way, whereas the second one relies on a non-parametric identification. Finally, the third axis deals with the home-made setting of the decimate filter. The identification of the noise filter is introduced similarly to methods developed in the system identification community. This allows estimating automatically the dynamic parameters with low covariance and it brings some information about the noise circulation through the closed-loop system. All the proposed methodologies are validated on an industrial robot with 6 degrees of freedom. Perspectives are outlined for future developments on robotic systems identification and other complex problems.
|
566 |
Élaboration d'un système de suivi de l'endommagement de composants mécaniques fonctionnant en régime variable et à très basse vitesse : Application au diagnostic sur roulements / Development of a surveillance system for very low and variable speed machines’ mechanical components : An application for bearing diagnosisMoustafa, Wael 09 June 2016 (has links)
Dans la majorité des secteurs industriels, les coûts de maintenance des systèmes de production représentent une partie non négligeable de l’ensemble de ces coûts. Pour améliorer les performances et la fiabilité des systèmes, différentes stratégies de maintenance sont utilisées. L’objectif est d’être capable de détecter toutes défaillances potentielles susceptibles d’affecter la production. L’analyse vibratoire est aujourd’hui un des outils les plus performants en termes de détection et de suivi de ces défaillances. Cependant, l’application de cette technique reste difficile dans le cas de machines fonctionnant avec des vitesses de rotation faibles et variables. Dans la présente thèse, nous proposons une technique alternative à l’analyse vibratoire pour surveiller l’état de fonctionnement de ces machines. Nous nous intéresserons plus particulièrement au suivi des roulements. Cette technique alternative se base sur l’analyse des variations de la vitesse angulaire instantanée qui sont générées par un défaut de roulement. Cette technique sera testée sur un banc d’essai et comparée avec d’autres techniques telles que l’analyse des signaux vibratoires et ultrasonores pour différentes conditions de chargement et pour différents types de défauts de roulement. Cette étude montre une grande efficacité de cette méthode dans le cas de très basses vitesses de rotation, constantes ou variables. L’ensemble de cette méthodologie a ensuite été implémentée sur un four de diffusion d’une unité de production sucrière. Les mesures réalisées montrent que cette technique est une technique prometteuse pour le suivi de systèmes fonctionnant avec des vitesses de rotation faibles et variables. / In the majority of industrial sectors, production systems’ maintenance costs represent an important part of the whole process’s cost. In order to improve systems’ reliability and performance, different maintenance strategies are used. The goal is to be able to detect all potential malfunction that may affect the production. Nowadays, vibration analysis is one of the best tools in term of detection and defect monitoring. However, the application of these vibration based techniques remain difficult in the case of machines functioning at low speeds. In this thesis, we propose an alternative technique of vibration analysis for the surveillance of these machines that operate on very low speeds and variable speeds. We are specifically interested in bearings’ monitoring. This alternative technique is based on instantaneous angular speed’s variations analysis that are induced by a bearing defect. This technique is tested on a test bench and compared with other techniques such as vibration and ultrasound analysis for different loading conditions and for different bearing fault types. This study shows a high efficiency of this method in the case of very low speeds, constant and variable. This methodology has then been implemented on sugar diffusion oven in a sugar production factory. The measurements shows that this technique is a promising technique for machines’ surveillance in very low and variable speeds working conditions.
|
567 |
Mesures subjectives et épidémiologie : problèmes méthodologiques liés à l’utilisation des techniques psychométriques / Subjective Measurements and Epidemiology : Methodological Issues Raised by the Use of Psychometric TechniquesRouquette, Alexandra 16 December 2014 (has links)
L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie. / Recently, subjective measurements have increasingly been used in epidemiology, alongside the growing will to integrate individuals’ point of view on their health in studies on diseases or health interventions. Psychometrics includes statistical methods used to develop questionnaires and to analyze questionnaire data. This doctoral dissertation aimed to explore methodological issues raised by the use of psychometric techniques in epidemiology. Three empirical studies are presented and cover 1 / the validation stage of a questionnaire: the objective was to develop, using simulated data, a tool to determine sample size for internal validity studies on psychiatric scale; 2 / the mathematical properties of the subjective measurement: the objective was to compare the performances of the minimal clinically important difference of a questionnaire, assessed on data from a cohort study, computed using the classical test theory (CTT) framework or the item response theory framework (IRT); 3 / its use in a longitudinal design: the objective was to compare, using simulated data, the performances of a statistical method aimed to analyze the longitudinal course of a subjective phenomenon measured using the CTT or IRT framework, especially when some of the available items used for its measurement differ at each time of data collection. Finally, directed acyclic graphs were used to discuss the results from these three studies and the concept of information bias when subjective measurements are used in epidemiology.
|
568 |
Conjugate Heat Transfer and Average Versus Variable Heat Transfer CoefficientsMacbeth, Tyler James 01 March 2016 (has links)
An average heat transfer coefficient, h_bar, is often used to solve heat transfer problems. It should be understood that this is an approximation and may provide inaccurate results, especially when the temperature field is of interest. The proper method to solve heat transfer problems is with a conjugate approach. However, there seems to be a lack of clear explanations of conjugate heat transfer in literature. The objective of this work is to provide a clear explanation of conjugate heat transfer and to determine the discrepancy in the temperature field when the interface boundary condition is approximated using h_bar compared to a local, or variable, heat transfer coefficient, h(x). Simple one-dimensional problems are presented and solved analytically using both h(x) and h_bar. Due to the one-dimensional assumption, h(x) appears in the governing equation for which the common methods to solve the differential equations with an average coefficient are no longer valid. Two methods, the integral equation and generalized Bessel methods are presented to handle the variable coefficient. The generalized Bessel method has previously only been used with homogeneous governing equations. This work extends the use of the generalized Bessel method to non-homogeneous problems by developing a relation for the Wronskian of the general solution to the generalized Bessel equation. The solution methods are applied to three problems: an external flow past a flat plate, a conjugate interface between two solids and a conjugate interface between a fluid and a solid. The main parameter that is varied is a combination of the Biot number and a geometric aspect ratio, A_1^2 = Bi*L^2/d_1^2. The Biot number is assumed small since the problems are one-dimensional and thus variation in A_1^2 is mostly due to a change in the aspect ratio. A large A_1^2 represents a long and thin solid whereas a small A_1^2 represents a short and thick solid. It is found that a larger A_1^2 leads to less problem conjugation. This means that use of h_bar has a lesser effect on the temperature field for a long and thin solid. Also, use of ¯ over h(x) tends to generally under predict the solid temperature. In addition is was found that A_2^2, the A^2 value for the second subdomain, tends to have more effect on the shape of the temperature profile of solid 1 and A_1^2 has a greater effect on the magnitude of the difference in temperature profiles between the use of h(x) and h_bar. In general increasing the A^2 values reduced conjugation.
|
569 |
Deterministisk Komprimering/Dekomprimering av Testvektorer med Hjälp av en Inbyggd Processor och Faxkodning / Deterministic Test Vector Compression/Decompression Using an Embedded Processor and Facsimile CodingPersson, Jon January 2005 (has links)
<p>Modern semiconductor design methods makes it possible to design increasingly complex system-on-a-chips (SOCs). Testing such SOCs becomes highly expensive due to the rapidly increasing test data volumes with longer test times as a result. Several approaches exist to compress the test stimuli and where hardware is added for decompression. This master’s thesis presents a test data compression method based on a modified facsimile code. An embedded processor on the SOC is used to decompress and apply the data to the cores of the SOC. The use of already existing hardware reduces the need of additional hardware. </p><p>Test data may be rearranged in some manners which will affect the compression ratio. Several modifications are discussed and tested. To be realistic a decompressing algorithm has to be able to run on a system with limited resources. With an assembler implementation it is shown that the proposed method can be effectively realized in such environments. Experimental results where the proposed method is applied to benchmark circuits show that the method compares well with similar methods. </p><p>A method of including the response vector is also presented. This approach makes it possible to abort a test as soon as an error is discovered, still compressing the data used. To correctly compare the test response with the expected one the data needs to include don’t care bits. The technique uses a mask vector to mark the don’t care bits. The test vector, response vector and mask vector is merged in four different ways to find the most optimal way.</p>
|
570 |
Förklaringar till VD-ersättningens storlek : En studie av kopplingen mellan VD-ersättning och lönsamhet i de största svenska aktiebolagenAndersson, Pär, Nordén, Thomas January 2009 (has links)
<p>Syftet med uppsatsen är att undersöka om det finns ett samband mellan lönsamhet och storlek på rörlig samt total VD-ersättning i de största svenska aktiebolagen. I uppsatsen diskuteras även funna samband samt bakomliggande teoretiska förklaringar till VD-ersättningens storlek. För att undersöka om VD-ersättning och företags lönsamhet korrelerar utförs kvantitativa undersökningar med hjälp av regressionsanalyser för respektive år mellan 2002 och 2007. Populationen som undersökningen baseras på är de företag som i september 2009 var registrerade på Stockholmsbörsens segment Large och Mid Cap.</p><p>Undersökningen resulterade i slutsatsen att inget samband mellan vare sig rörlig eller total VD-ersättning och lönsamhet kunde styrkas. Istället gavs indikationer om andra faktorer som påverkade VD-ersättningens storlek. Studien visade en tydlig koppling mellan företagsstorlek och VD-ersättning. Andra trender indikerade att det marknadsjämförande synsättet är det vanligaste vid fastställande av VD-ersättningsnivåer. Dessutom diskuterades andra faktorers inflytande på VD-ersättningars storlek utifrån tidigare forskning.</p> / <p>The purpose of this thesis is to examine whether a relationship between CEO compensation and organizational profitability exists in the largest Swedish companies. Both the total and the variable compensation schemes’ dependence on organizational compensation are analyzed. The objective is moreover to discuss the observed relationships in the study as well as the theoretical explanations to the level of the CEO compensation. In order to examine if CEO compensation correlates with organizational profitability quantitative research methods are applied via regression analyses for each separate year between 2002 and 2007. The population our research is based on is the companies quoted on the Stockholm Stock Exchange in September 2009 within the segments Large and Mid Cap.</p><p>It was concluded that no relationship between neither variable nor total CEO compensation and organizational profitability existed. However, indications of other factors affecting the compensation were indicated. The regression confirmed a relationship between organizational size and CEO compensation. Other trends indicated that the market-based approach was the most common when determining CEO compensation levels. In addition we discussed how other previously proved relationships as well as further theoretical research related to our study.</p>
|
Page generated in 0.0486 seconds