• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 36
  • 36
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

「女性研究 」文獻之書目計量學研究 / A Bibliometric Study of Women's Studies Literature

李家寧, Li, Chia Ning Unknown Date (has links)
本研究旨在應用書目計量學方法分析1900年至2013年間,女性研究文獻之特性,藉以探討女性研究之發展情形。研究樣本取自WOS資料庫(包含三個子資料庫SSCI、SCIE和A&HCI),計16,852篇相關書目資料。期望本研究結果能提供女性研究學界與圖書館或資料單位參考,協助其做有效之館藏規劃及期刊資訊服務。 本研究結果歸納如下:(1) 女性研究文獻篇數與年代是成正比的狀況,較符合指數成長模式。進一步以指數迴歸預測成長篇數的話,顯示女性研究文獻有成長減緩的趨勢。(2)女性研究文獻之主要出版國為美國、英國、加拿大、荷蘭、德國等國。 (3)英文為女性研究文獻最重要之寫作語文。(4)女性研究文獻之出版類型以期刊文章為主,佔總文獻之62.86%。(5)女性研究廣泛應用於各學科,主題領域前五名分別為心理學相關、女性研究(狹義)、歷史、文學及教育與教育研究。 (6) 女性研究之文獻分布相當分散,但仍有其核心期刊。(7)本研究符合布萊德福定律,但不符合布萊德福-齊夫定律曲線。(8) 高生產力期刊與高被引期刊的主題明顯分散。 (10) 洛卡定律、普萊斯平方根定律、80/20 定律不適用於本研究。(11) 研究機構的生產力分散,大學校院為主要研究機構,機構下的系所分布以心理學系所最多。(12) 美國與英國為相關研究機構最多的國家,也是延攬他國學術成果的最多的國家。 本研究最後依據研究發現之結果,提出以下建議:(1)本研究之各項研究成果,可作為圖書資訊界館藏發展與管理之參考。(2)女性研究相關研究人員,應具備跨主題領域的合作研究能力且法文、德文、西班牙文等外語能力。(4)資料庫公司應提升書目資料精確性,以利研究。(5)定期對女性研究文獻進行分析,有助於女性研究相關研究人員瞭解該領域之研究發展。 / The purpose of the study is to understand the contents, relations, development, and trends between various disciplines of “women’s studies.” This study analyzes the characteristics of women’s studies literature during 1900-2013 by bibliometric approach, collecting analytical components such as the frequencies of the publication, publication languages, countries of publications, journal sources, cited times, disciplines of subject categories and document type from three major sub-databases of Web of Science services: SCIE, SSCI, and A&HCI. A total of 16,852 bibliographic records were retrieved from the databases. The results of the present study are as follows. (1) The growth pattern of women’s studies literature during 1900-2013 generally fits exponential growth, but the growth has been slowed down since 2011. (2) United States, United Kingdom, Canada, Netherlands and Germany are five major countries of women’s studies publications. (3) English is the most often used language. (4) Journal articles are the major type of women’s studies publications, accounting for 62.86% of total publications. (5) Women’s studies are scattered in multiple disciplines, with five subjects significantly contributing to the literature count: psychology and its related disciplines, women’s studies (in narrow definition), history, literature, and education and educational research. (6) Despite of the scattered distribution of women’s studies literature, core journals of women’s studies still can be identified. (7)The distribution of journal articles fits Bradford Law, but it does not fit the typical Bradford-Zipf’s S-shaped curve. (8) The journal subjects of highly productive journals and highly cited journals vary. (9) Author distribution is counted by single authorship and collaborative authorship; the results show that author distribution neither fits Lotka’s law, Square Root Law or 80/20 Rule. (10) Academic institutions are major producers of women’s studies, with departments in universities and colleges concerning psychology and its related disciplines being the main contributors to the publications. (11) Most productive research institutions are distributed over United States, United Kingdom, Canada, Australia and Turkey. The findings of the study may provide better understanding of the past, current and future of women’s studies, and serve as references to identify more suitable, popular and influential journals and literature for both research purposes and library collection development and management.
32

Vybrané transformace náhodných veličin užívané v klasické lineární regresi / Selected random variables transformations used in classical linear regression

Tejkal, Martin January 2017 (has links)
Klasická lineární regrese a z ní odvozené testy hypotéz jsou založeny na předpokladu normálního rozdělení a shodnosti rozptylu závislých proměnných. V případě že jsou předpoklady normality porušeny, obvykle se užívá transformací závisle proměnných. První část této práce se zabývá transformacemi stabilizujícími rozptyl. Značná pozornost je udělena náhodným veličinám s Poissonovým a negativně binomickým rozdělením, pro které jsou studovány zobecněné transformace stabilizující rozptyl obsahující parametry v argumentu navíc. Pro tyto parametry jsou stanoveny jejich optimální hodnoty. Cílem druhé části práce je provést srovnání transformací uvedených v první části a dalších často užívaných transformací. Srovnání je provedeno v rámci analýzy rozptylu testováním hypotézy shodnosti středních hodnot p nezávislých náhodných výběrů s pomocí F testu. V této části jsou nejprve studovány vlastnosti F testu za předpokladu shodných a neshodných rozptylů napříč výběry. Následně je provedeno srovnání silofunkcí F testu aplikovaného pro p výběrů z Poissonova rozdělení transformovanými odmocninovou, logaritmickou a Yeo Johnsnovou transformací a z negativně binomického rozdělení transformovaného argumentem hyperbolického sinu, logaritmickou a Yeo-Johnsnovou transformací.
33

Optimální odhad stavu modelu navigačního systému / Optimal state estimation of a navigation model system

Papež, Milan January 2013 (has links)
This thesis presents an investigation of the possibility of using the fixed-point arithmetic in the inertial navigation systems, which use the local level navigation frame mechanization equations. Two square root filtering methods, the Potter's square root Kalman filter and UD factorized Kalman filter, are compared with respect to the conventional Kalman filter and its Joseph's stabilized form. The effect of rounding errors to the Kalman filter optimality and the covariance matrix or its factors conditioning is evaluated for a various lengths of the fractional part of the fixed-point computational word. Main contribution of this research lies in an evaluation of the minimal fixed-point arithmetic word length for the Phi-angle error model with noise statistics which correspond to the tactical grade inertial measurements units.
34

Temperaturbestimmung an IGBTs und Dioden unter hohen Stoßstrombelastungen

Simon, Tom 16 April 2015 (has links)
Diese Arbeit beschäftigt sich mit drei verschiedenen Temperaturmessmethoden VCE, VGTH sowie über die Messung der thermsichen Impedanz mit 10ms langen Lastimpulsen und vergleicht die Messergebnisse mit zwei Simulatoren. Dabei wird ein Schaltungs- sowie ein Halbleitersimulator verwendet und das bisherige Simulationsmodell angepasst.:Aufgabenstellung Inhaltsverzeichnis Nomenklatur Einleitung 1. Grundlagen 1.1. Halbleitermaterialien 1.2. Dioden Grundlagen 1.2.1. pn-Übergang 1.2.2. Temperaturabhängigkeit der Diffusionsspannung des pn-Übergangs 1.2.3. Diodenstrukturen 1.3. IGBT Grundlagen 1.3.1. Funktionsweise und ESB 1.3.2. Statisches Verhalten des IGBTs 1.4. Messtechnische Bestimmung der virtuellen Sperrschichttemperatur 1.4.1. VCE(T)- und VGth(T)-Methode 1.4.2. Temperaturreferenzmessung – Kalibrierkennlinie 1.4.3. Wurzel(t)-Methode 1.5. Simulation der virtuellen Sperrschichttemperatur mittels thermischer Ersatzschaltbilder 1.5.1. Thermische Kenngrößen Rth, Cth 1.5.2. Transiente thermische Impedanz Zth 1.5.3. Ersatzschaltbild – Cauer-Netzwerk 1.6. Simulation der virtuellen Sperrschichttemperatur mittels Halbleitersimulator 1.7. Stoßstromereignisse 2. Vormessungen 2.1. Prüflinge 2.2. Messung der Sperrfähigkeit 2.2.1. Testaufbau – Schaltung 2.2.2. Testergebnisse 2.3. Messung des Ausgangskennlinienfeldes/ Durchlassmessungen 2.3.1. Testaufbau – Schaltung 2.3.2. Testergebnisse 2.4. Messung der Transferkennlinie 2.4.1. Testaufbau – Schaltung 2.4.2. Testergebnisse 2.4.3. Bestimmung des “pinch-off”-Bereiches 2.5. Aufnahme der Kalibrierkennlinien 2.5.1. Testaufbau – Schaltung 2.5.2. Testergebnisse 3. Temperaturbestimmung mittels thermischer Impedanz Zth 3.1. Testaufbau – Schaltung 3.2. Testergebnisse 4. Temperaturbestimmung am Stoßstrommessplatz 4.1. Ermittlung der Halbleitertemperatur nach einem Stoßstromereignis 4.1.1. Anpassung des Stoßstrommessplatzes 4.1.2. Pulsmuster VCE(T)-, VGth(T)-Messung 4.1.3. Testergebnisse 4.2. Ermittlung des Halbleitertemperaturverlaufes während des Stoßstromereignisses 4.2.1. Testaufbau - Schaltung 4.2.2. Pulsmuster VCE(T)-, VGth(T)-Messung 4.2.3. Testergebnisse 5. Simulation der Temperaturverläufe 5.1. Temperatursimulation mittels Halbleitersimulator 5.2. Temperatursimulation mittels Cauer-Netzwerk 5.3. Angepasste Temperatursimulation mittels Cauer-Netzwerk 6. Zusammenfassung und Ausblick Anhang Literaturverzeichnis Selbstständigkeitserklärung Danksagung
35

Contributions à la vérification formelle d'algorithmes arithmétiques / Contributions to the Formal Verification of Arithmetic Algorithms

Martin-Dorel, Erik 26 September 2012 (has links)
L'implantation en Virgule Flottante (VF) d'une fonction à valeurs réelles est réalisée avec arrondi correct si le résultat calculé est toujours égal à l'arrondi de la valeur exacte, ce qui présente de nombreux avantages. Mais pour implanter une fonction avec arrondi correct de manière fiable et efficace, il faut résoudre le «dilemme du fabricant de tables» (TMD en anglais). Deux algorithmes sophistiqués (L et SLZ) ont été conçus pour résoudre ce problème, via des calculs longs et complexes effectués par des implantations largement optimisées. D'où la motivation d'apporter des garanties fortes sur le résultat de ces pré-calculs coûteux. Dans ce but, nous utilisons l'assistant de preuves Coq. Tout d'abord nous développons une bibliothèque d'«approximation polynomiale rigoureuse», permettant de calculer un polynôme d'approximation et un intervalle bornant l'erreur d'approximation à l'intérieur de Coq. Cette formalisation est un élément clé pour valider la première étape de SLZ, ainsi que l'implantation d'une fonction mathématique en général (avec ou sans arrondi correct). Puis nous avons implanté en Coq, formellement prouvé et rendu effectif 3 vérifieurs de certificats, dont la preuve de correction dérive du lemme de Hensel que nous avons formalisé dans les cas univarié et bivarié. En particulier, notre «vérifieur ISValP» est un composant clé pour la certification formelle des résultats générés par SLZ. Ensuite, nous nous sommes intéressés à la preuve mathématique d'algorithmes VF en «précision augmentée» pour la racine carré et la norme euclidienne en 2D. Nous donnons des bornes inférieures fines sur la plus petite distance non nulle entre sqrt(x²+y²) et un midpoint, permettant de résoudre le TMD pour cette fonction bivariée. Enfin, lorsque différentes précisions VF sont disponibles, peut survenir le phénomène de «double-arrondi», qui peut changer le comportement de petits algorithmes usuels en arithmétique. Nous avons prouvé en Coq un ensemble de théorèmes décrivant le comportement de Fast2Sum avec double-arrondis. / The Floating-Point (FP) implementation of a real-valued function is performed with correct rounding if the output is always equal to the rounding of the exact value, which has many advantages. But for implementing a function with correct rounding in a reliable and efficient manner, one has to solve the ``Table Maker's Dilemma'' (TMD). Two sophisticated algorithms (L and SLZ) have been designed to solve this problem, relying on some long and complex calculations that are performed by some heavily-optimized implementations. Hence the motivation to provide strong guarantees on these costly pre-computations. To this end, we use the Coq proof assistant. First, we develop a library of ``Rigorous Polynomial Approximation'', allowing one to compute an approximation polynomial and an interval that bounds the approximation error in Coq. This formalization is a key building block for verifying the first step of SLZ, as well as the implementation of a mathematical function in general (with or without correct rounding). Then we have implemented, formally verified and made effective 3 interrelated certificates checkers in Coq, whose correctness proof derives from Hensel's lemma that we have formalized for both univariate and bivariate cases. In particular, our ``ISValP verifier'' is a key component for formally verifying the results generated by SLZ. Then, we have focused on the mathematical proof of ``augmented-precision'' FP algorithms for the square root and the Euclidean 2D norm. We give some tight lower bounds on the minimum non-zero distance between sqrt(x²+y²) and a midpoint, allowing one to solve the TMD for this bivariate function. Finally, the ``double-rounding'' phenomenon can typically occur when several FP precision are available, and may change the behavior of some usual small FP algorithms. We have formally verified in Coq a set of results describing the behavior of the Fast2Sum algorithm with double-roundings.
36

Calcul flottant haute performance sur circuits reconfigurables / High-performance floating-point computing on reconfigurable circuits

Pasca, Bogdan Mihai 21 September 2011 (has links)
De plus en plus de constructeurs proposent des accélérateurs de calculs à base de circuits reconfigurables FPGA, cette technologie présentant bien plus de souplesse que le microprocesseur. Valoriser cette flexibilité dans le domaine de l'accélération de calcul flottant en utilisant les langages de description de circuits classiques (VHDL ou Verilog) reste toutefois très difficile, voire impossible parfois. Cette thèse a contribué au développement du logiciel FloPoCo, qui offre aux utilisateurs familiers avec VHDL un cadre C++ de description d'opérateurs arithmétiques génériques adapté au calcul reconfigurable. Ce cadre distingue explicitement la fonctionnalité combinatoire d'un opérateur, et la problématique de son pipeline pour une précision, une fréquence et un FPGA cible donnés. Afin de pouvoir utiliser FloPoCo pour concevoir des opérateurs haute performance en virgule flottante, il a fallu d'abord concevoir des blocs de bases optimisés. Nous avons d'abord développé des additionneurs pipelinés autour des lignes de propagation de retenue rapides, puis, à l'aide de techniques de pavages, nous avons conçu de gros multiplieurs, possiblement tronqués, utilisant des petits multiplieurs. L'évaluation de fonctions élémentaires en flottant implique souvent l'évaluation en virgule fixe d'une fonction. Nous présentons un opérateur générique de FloPoCo qui prend en entrée l'expression de la fonction à évaluer, avec ses précisions d'entrée et de sortie, et construit un évaluateur polynomial optimisé de cette fonction. Ce bloc de base a permis de développer des opérateurs en virgule flottante pour la racine carrée et l'exponentielle qui améliorent considérablement l'état de l'art. Nous avons aussi travaillé sur des techniques de compilation avancée pour adapter l'exécution d'un code C aux pipelines flexibles de nos opérateurs. FloPoCo a pu ainsi être utilisé pour implanter sur FPGA des applications complètes. / Due to their potential performance and unmatched flexibility, FPGA-based accelerators are part of more and more high-performance computing systems. However, exploiting this flexibility for accelerating floating-point computations by manually using classical circuit description languages (VHDL or Verilog) is very difficult, and sometimes impossible. This thesis has contributed to the development of the FloPoCo software, a C++ framework for describing flexible FPGA-specific arithmetic operators. This framework explicitly separates the description of the combinatorial functionality of an arithmetic operator, and its pipelining for a given precision, operating frequency and target FPGA.In order to be able to use FloPoCo for designing high performance floating-point operators, we first had to design the optimized basic blocks. We first developed pipelined addition architectures exploiting the fast-carry lines present in modern FPGAs. Next, we focused on multiplication architectures. Using tiling techniques, we proposed novel architectures for large multipliers, but also truncated multipliers, based on the multipliers found in modern FPGA DSP blocks. We also present a generic FloPoCo operator which inputs the expression of a function, its input and output precisions, and builds an optimized polynomial evaluator for the fixed-point evaluation of this function. Using this building block we have designed floating-point operators for the square-root and exponential functions which significantly outperform existing operators. Finally, we also made use of advanced compilation techniques for adapting the execution of a C program to the flexible pipelines of our operators.

Page generated in 0.0454 seconds