• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 393
  • 156
  • 100
  • 72
  • 43
  • 42
  • 22
  • 20
  • 18
  • 18
  • 18
  • 18
  • 18
  • 16
  • 16
  • Tagged with
  • 1040
  • 186
  • 82
  • 80
  • 73
  • 62
  • 58
  • 54
  • 51
  • 50
  • 49
  • 47
  • 44
  • 44
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Effects of water table management on water quality and strip cropped corn-soybean yields

Mejía, Manuel. January 1997 (has links)
No description available.
302

Scalable Streaming Graph Partitioning

Seyed Khamoushi, Seyed Mohammadreza January 2017 (has links)
Large-scale graph-structured datasets are growing at an increasing rate. Social network graphs are an example of these datasets. Processing large-scale graphstructured datasets are central to many applications ranging from telecommunication to biology and has led to the development of many parallel graph algorithms. Performance of parallel graph algorithms largely depends on how the underlying graph is partitioned. In this work, we focus on studying streaming vertex-cut graph partitioning algorithms where partitioners receive a graph as a stream of vertices and edges and assign partitions to them on their arrival once and for all. Some of these algorithms maintain a state during partitioning. In some cases, the size of the state is so huge that it cannot be kept in a single machine memory. In many real world scenarios, several instances of a streaming graph partitioning algorithm are run simultaneously to improve the system throughput. However, running several instances of a partitioner drops the partitioning quality considerably due to the incomplete information of partitioners. Even frequently sharing states and its combination with buffering mechanisms does not completely solves the problem because of the heavy communication overhead produced by partitioners. In this thesis, we propose an algorithm which tackles the problem of low scalability and performance of existing streaming graph partitioning algorithms by providing an efficient way of sharing states and its combination with windowing mechanism. We compare state-of-the-art streaming graph partitioning algorithms with our proposed solution concerning performance and efficiency. Our solution combines a batch processing method with a shared-state mechanism to achieve both an outstanding performance and a high partitioning quality. Shared state mechanism is used for sharing states of partitioners. We provide a robust implementation of our method in a PowerGraph framework. Furthermore, we empirically evaluate the impact of partitioning quality on how graph algorithms perform in a real cloud environment. The results show that our proposed method outperforms other algorithms in terms of partitioning quality and resource consumption and improves partitioning time considerably. On average our method improves partitioning time by 23%, decreases communication load by 15% and increase memory consumption by only 5% compared to the state-of-the-art streaming graph partitioning.
303

年金生命表之研究 / THE RESEARCH OF THE ANNUITY TABLE

鄭智超, CHEN CHIN-TS'AO Unknown Date (has links)
隨著醫藥科技的發達和公共衛生的進步,人類平均壽命不斷持續的延長, 致使我國將邁入高齡化的社會。又因小家庭制度的盛行,生活費用的增加 ,社會風氣的改變等因素,使得人們不得不為自己老年或退休後的生活預 作打算,而年金保險在此時即扮演對老年生活極佳之財務規劃工具。然而 ,壽險公司在推出年金保險商品之前,必須先要有一套年金生命表為計算 依據,本文除論述年金保險和年金生命表之概念外,亦介紹美、日兩國的 年金生命表及歷年之年金生命表,對年金生命表的編製更作一番詳細的探 討,並嚐試編製出一套適合我國目前情形的年金生命表,其各章摘要如下 :第一章 係就研究動機、目的、範圍、限制、方法、內容及論文架構 加 @ 以說明。第二章 旨在說明年金、年金保險和退休金三者的 意義及範圍,並敘述三者之差別,同時亦介紹美、日兩國經營年金保險的 情形。第三章 旨在說明生命表的意義、種類和編製過程,並敘述年金生 命表的衍變及與壽險經驗生命表的差別和適用的險種,同時再介紹美、日 兩國的年金生命表。第四章 旨在說明可用於編製年金生命表的方法,及 目前適用我國的編製方案及其編製過程,並試編兩方案生命表死亡率,接 著說明影響年金生命表的因素及安全率的附加,最後介紹使用後調整死亡 率的方法。第五章 除了說明與年金生命表死亡率有關之保險費、責任準 備金、解約金、紅利和保險金之計算方式外,並設計電腦程式,用以計算 第四章編製完成之死亡率為基礎之純保費,並變動各項因素來探討其結果 ,及與其他金融業年金商品之競爭性。第六章 係就前述各章結果下總結 ,並就研究心得對壽險業及主管機關提出建議。
304

Jouer le jeu - Une approche compréhensive de l'efficience éthique

Bozzi, Frédéric 30 June 2009 (has links) (PDF)
Si l'éthique n'est pas illusoire, comment comprendre son efficience ? La question nécessite d'identifier des complexes objectifs de sens et d'action. Il s'agit en effet de se placer du côté du corps pour ne plus verser dans l'éternel débat idéologique qui, précisément, élude la question. Un travail empirique s'impose, que nous engageons dans un championnat départemental de tennis de table. Nous ne pouvons au demeurant mettre en relation sens et actions sans penser le plan sur lequel les apposer. La comparaison naïve conduit en effet à rabattre inconsciemment les éléments actionnels sur l'unique plan de la représentation. D'où la nécessaire induction d'un plan d'apposition à partir de la fréquentation méthodique du terrain. Cette construction ne peut se faire aux dépends des acteurs, sources du sens éthique et des actions effectives, mais doit être conforme à une épistémologie de la complexité et de l'immanence. Au terme d'une démarche graduelle qui vise la connexion de la posture et du terrain, nous déterminons ainsi le « jeu » comme plan d'apposition. « Jouer le jeu », c'est réaliser un bien dans et par des actions sportives. En en identifiant les déclinaisons, nous élaborons des complexes de sens et d'action. Ceux-ci sont déduits selon un principe généalogique à partir des données déjà collectées. Après leur analyse méthodique, nous sommes en mesure de faire une description détaillée du processus d'efficience qui a cours dans un échange type. Nous défendons par là l'idée que l'éthique adjoint au déséquilibre, coeur inconscient du mouvement et dimension physiologique de la motivation, une nuance qui lui assure perduration dans un monde de l'équilibre institué.
305

Compilateur de parties contrôle de microprocesseurs

Mhaya, Noureddine 24 June 1988 (has links) (PDF)
.
306

Étude d'algorithmes d'apprentissage artificiel pour la prédiction de la syncope chez l'homme

Feuilloy, Mathieu 08 July 2009 (has links) (PDF)
La syncope, dont l'origine peut ne pas être clairement définie, est considérée comme une pathologie fréquente. Dans ce cas et lorsque les épisodes sont répétés, le patient peut être amené à réaliser le test de la table d'inclinaison. Cet examen appelé tilt-test, est une méthode reconnue pour recréer les conditions dans lesquelles le patient ressent les symptômes de la syncope. Cependant, le principal problème de ce test est sa durée, qui peut atteindre une heure. Dès lors, pour des raisons de coût et de bien-être des patients, il paraît important de pouvoir réduire sa durée. C'est dans cet objectif que s'inscrivent les travaux réalisés dans le cadre de cette thèse, qui tentent de prédire l'apparition des symptômes liés à la syncope, et ce, le plus tôt possible. Durant nos recherches, deux axes sont ressortis naturellement : la fouille de données et le dé- veloppement de modèles capables de prédire le résultat du tilt-test. Ces deux axes partagent des méthodes issues de l'apprentissage articiel, qui permettent d'acquérir et d'extraire des connaissances à partir d'un ensemble d'observations signicatif. La littérature propose tout un ensemble de méthodes, qui nous ont permis de mettre en évidence certaines caractéristiques pertinentes, de manière à construire des modèles parcimonieux et robustes. Ces derniers ont permis d'obtenir des résultats intéressants pour la prédiction du résultat du tilt-test au terme notamment, des dix premières minutes de l'examen. Ces performances ont pu être considérablement améliorées par le développement de nouvelles techniques de fouille de données, permettant d'extraire très e- cacement de la connaissance. Les méthodes mises en place s'articulent autour de la sélection de variables et de l'interprétation de projections non linéaires. Ces méthodes, bien que développées autour de notre thématique, se sont montrées reproductibles lors de tests sur d'autres ensembles de données.
307

Design and Implementation of a DMA Controller for Digital Signal Processor

Jiang, Guoyou January 2010 (has links)
<p>The thesis work is conducted in the division of computer engineering at thedepartment of electrical engineering in Linköping University. During the thesiswork, a configurable Direct Memory Access (DMA) controller was designed andimplemented. The DMA controller runs at 200MHz under 65nm digital CMOS technology. The estimated gate count is 26595.</p><p>The DMA controller has two address generators and can provide two clocksources. It can thus handle data read and write simultaneously. There are 16channels built in the DMA controller, the data width can be 16-bit, 32-bit and64-bit. The DMA controller supports 2D data access by configuring its intelligentlinking table. The DMA is designed for advanced DSP applications and it is notdedicated for cache which has a fixed priority.</p>
308

Ecological characteristics of montane floodplain plant communities in the Upper Grande Ronde basin, Oregon

Otting, Nicholas J. 30 April 1998 (has links)
Graduation date: 1999
309

Développement d'une méthodologie d'essais de fatigue accélérée de pièces mécaniques sur table vibrante

Marin, Frederic 22 February 2010 (has links)
Dans leurs conditions réelles de fonctionnement, les pièces mécaniques, exposées à un environnement vibratoire de longue durée, sont sujettes à un endommagement par fatigue dynamique pouvant conduire à une perte de performance, voire d'intégrité de la structure. Les tests de fatigue accélérée ont pour but de soumettre une pièce mécanique à un essai de vibration, de durée réduite, en laboratoire, tel que le dommage subi soit équivalent au dommage rencontré par la pièce en service. D'une manière générale, les secteurs d'application potentiellement concernés par les tests de fatigue accélérée relèvent de l'industrie mécanique au sens large (industries automobile,aéronautique, spatiale, ferroviaire, ...). La société R-Tech, bureau d'études du groupe Schréder, fabricant d'appareils d'éclairage public, est à l'origine du projet de recherche ayant conduit à la réalisation de ce travail. Celui-ci s'inscrit dans le cadre d'une convention de First-Doctorat Entreprise, cofinancée par la Région wallonne et le partenaire industriel. L'intérêt porté par R-Tech aux résultats de la recherche est lié au fait que tous les luminaires conçus sont dimensionnés par un calcul statique basé sur la méthode des éléments finis et testés en fatigue sur table vibrante avant d'être commercialisés. Malgré ces précautions, dans quelques cas, des problèmes de bris se produisent sur site. Dans d'autres cas, les calculs par éléments finis conduisent à un surdimensionnement des pièces constitutives du luminaire. Il est donc important pour R-Tech de pouvoir disposer d'outils de conception et de validation de conception permettant de développer et de produire de façon économique des luminaires résistant aux sollicitations auxquelles ils sont normalement exposés. En permettant à R-Tech/Schréder de certifier la conception structurale de leurs produits et d'en garantir la durée de vie dès la phase de développement, cette recherche devrait leur apporter un gain de compétitivité. Par conséquent, la méthodologie développée, bien que générale, a été appliquée en priorité aux cas tests fournis par le partenaire industriel. Lorsque la pièce mécanique devant subir l'essai de vibrations n'est pas connue ou complètement définie, la méthodologie proposée se réfère à une approche analytique basée sur un système de référence à un degré de liberté et conduisant à la définition des critères de sévérité que sont les Spectre de Réponse Extrême (SRE), Spectre de Dommage par Fatigue (SDF) ou Spectre d'Energie Dissipée (SED). Cette approche, indépendante du spécimen à tester et dès lors particulièrement indiquée dans le cas de l'élaboration d'une spécification, ne peut cependant fournir que des résultats qualitatifs. L'estimation précise de la contrainte maximale présente dans la pièce testée ainsi que celle de l'endommagement qu'elle génère au cours du temps n'est envisageable, au moyen d'une telle approche, que pour de rares applications relativement simples permettant d'établir la relation qui existe entre contrainte et déplacement relatif. Dans un cas contraire, le recours à un modèle éléments finis du spécimen est nécessaire. Dans le cas particulier des appareils d'éclairage public, l'environnement vibratoire auquel ils sont soumis est essentiellement dû aux sollicitations éoliennes. Des données météorologiques recueillies par l'IRM à Uccle ont permis d'alimenter un modèle de vent qui rend compte des sollicitations aléatoires liées à la turbulence du vent ainsi qu'à un éventuel largage de tourbillons de Von Karman. Ces excitations sont ensuite appliquées à un modèle éléments finis simplifié du système poteau/luminaire. D'autres environnements vibratoires auxquels les luminaires peuvent être soumis au cours de leur vie, tels les sollicitations sismiques induites à la base d'un poteau installé sur pont ou viaduc et l'impact qui lui est appliqué lors de la collision avec un véhicule manoeuvrant sur un parking, ont également été envisagés dans ce travail. Une fois l'environnement vibratoire réel de la pièce mécanique à tester déterminé, soit expérimentalement, soit analytiquement, la méthodologie proposée conduit à l'obtention d'une spécification équivalente au moyen d'un processus d'optimisation développé au sein du logiciel BOSS Quattro (Samtech). Ce dernier minimise la fonction objectif représentant l'écart entre le critère de sévérité retenu pour caractériser les environnements de référence et équivalent. Le test aléatoire équivalent au vent ainsi que le test d'impact sur poteau font désormais partie intégrante de la procédure de qualification des luminaires R-Tech/Schréder. Lorsque la géométrie de la pièce mécanique à tester et la spécification d'essai à reproduire en laboratoire sur table vibrante sont fixées, une modélisation éléments finis du spécimen permet, si pas d'annuler complètement le risque de bris qui pourrait survenir lors de la phase de qualification expérimentale, de le réduire très fortement. Dans l'exemple d'un luminaire, la structure étant rendue complexe par le nombre de pièces qui la constituent et les assemblages qui existent entre elles, une confrontation des résultats de simulation et expérimentaux est nécessaire : analyses modales au marteau d'impact et sur table vibrante en ajoutant un composant à la fois afin de recaler le modèle, comparaison des niveaux d'accélération simulés et mesurés lors de l'essai en vue du recalage des coefficients d'amortissements modaux, validation du modèle sur base des contraintes mesurées au moyen de jauges et/ou rosettes. Une fois les zones jugées critiques repérées, le modèle peut dès lors être utilisé pour prédire la durée de vie du spécimen soumis à son environnement vibratoire. Celle-ci est finalement obtenue en faisant appel aux concepts de contrainte équivalente de Von Mises, approximation bilinéaire de la courbe de Wöhler, contrainte plastique de Neuber et évolution linéaire ou non-linéaire de l'endommagement.
310

On the Measurement of Model Fit for Sparse Categorical Data

Kraus, Katrin January 2012 (has links)
This thesis consists of four papers that deal with several aspects of the measurement of model fit for categorical data. In all papers, special attention is paid to situations with sparse data. The first paper concerns the computational burden of calculating Pearson's goodness-of-fit statistic for situations where many response patterns have observed frequencies that equal zero. A simple solution is presented that allows for the computation of the total value of Pearson's goodness-of-fit statistic when the expected frequencies of response patterns with observed frequencies of zero are unknown. In the second paper, a new fit statistic is presented that is a modification of Pearson's statistic but that is not adversely affected by response patterns with very small expected frequencies. It is shown that the new statistic is asymptotically equivalent to Pearson's goodness-of-fit statistic and hence, asymptotically chi-square distributed. In the third paper, comprehensive simulation studies are conducted that compare seven asymptotically equivalent fit statistics, including the new statistic. Situations that are considered concern both multinomial sampling and factor analysis. Tests for the goodness-of-fit are conducted by means of the asymptotic and the bootstrap approach both under the null hypothesis and when there is a certain degree of misfit in the data. Results indicate that recommendations on the use of a fit statistic can be dependent on the investigated situation and on the purpose of the model test. Power varies substantially between the fit statistics and the cause of the misfit of the model. Findings indicate further that the new statistic proposed in this thesis shows rather stable results and compared to the other fit statistics, no disadvantageous characteristics of the fit statistic are found. Finally, in the fourth paper, the potential necessity of determining the goodness-of-fit by two sided model testing is adverted. A simulation study is conducted that investigates differences between the one sided and the two sided approach of model testing. Situations are identified for which two sided model testing has advantages over the one sided approach.

Page generated in 0.0515 seconds