• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 45
  • 27
  • 26
  • 24
  • 21
  • 16
  • 15
  • 12
  • 7
  • 6
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 456
  • 71
  • 56
  • 55
  • 47
  • 40
  • 39
  • 35
  • 31
  • 31
  • 30
  • 30
  • 29
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Evaluation of Changes between the Material and Resource Category of LEED v4.0 and v3.0 as it Pertains to New Construction and Major Renovations

Pai, Vibha January 2017 (has links)
No description available.
342

Aktiv och passiv fondförvaltning på den svenska marknaden : en kvantitativ studie om fonders avgift och avkastning

Finskas, Amanda, Westerback, Mikaela January 2016 (has links)
Background: In Sweden one of the most common ways of saving money is through funds and investors have many options to choose between. It depends on the risks you are willing to take, the expected return and size of management fees. The fees charged by the management company varies a lot depending on if the funds are managed actively or passively. During the recent years there have been discussions about which type of fund management will be the most profitable in relation to the fee. Actively managed funds are in general more expensive than passively managed. Object: The purpose of this study is to analyze if there is any relationship between the fee and the return while considering the risk. Furthermore, it will be analyzed if actively or passively managed funds generate higher return considering the fees, and if the actively managed funds succeedtheir benchmark index or not. The aim is to find out which type of fund management is the most appropriate to receive the highest return on the investment. Delimitation: The study is limited to Swedish funds that have been on the Stockholm Stock Exchange for at least 10 years and at least 90 % of the fund’s holdings must be invested in Swedish companies. Actively managed funds and index funds are analyzed and the other funds are excluded. Method: The study extends between the years 2011-2015. A correlation analysis has been made to see if there is a relationship between management fees and the return on investment. To get the best possible result,calculations and analysis have been made on both risk and performance measurements. Conclusion: It is more profitable to invest in index funds than actively managed funds. Actively managed funds does not generate a higher return on investment than indexfunds but they have a higher management fee. There is no relationship between the fee charged by the mangementcompanies and what return you get in the funds. / Bakgrund:Fonder ären vanlig sparmetod i Sverige och vid val av fond finns det många möjligheter för investerare. Detta beroende på vilken risk man är villig att ta, hur hög avkastning man förväntar sig samt hur hög fondens avgift är. Förvaltningsavgiften är den kostnad som betalas till fondbolagen för det förvaltningsarbete som utförs. Avgiften varierar beroende på om fonden förvaltas aktivt eller passivt. Under de senaste åren har det förekommit diskussioner kring vilken fondförvaltning som är bäst att välja i förhållande till avkastning och avgift, eftersom priserna för de aktivt och passivt förvaltade fonderna ofta skiljer sig åt. Syfte: Syftet med studien är att undersöka om det finns något samband mellan avgift och avkastning i förhållande till tagen risk för de aktivt och passivt förvaltade fonderna. Vidare kommer undersökas om aktiv eller passiv fondförvaltning genererar högre avkastning i förhållande till avgift, samt om de aktivt förvaltade fonderna överträffar sitt jämförelseindex eller inte. Avsikten är att få svar på vilken fondförvaltning som ger bättre resultat och därmed är bäst att investera i. Avgränsning: Studien avgränsas till svenska fonder som funnits på Stockholmsbörsen i minst 10 år och har minst 90 % av innehavet i svenska företag. Aktiv förvaltade aktiefonder och indexfonder undersöks, övriga fonder exkluderas. Metod: Tidsperioden som undersöks är fem år, 2011-2015. En korrelationsanalys utförs för att se samband mellan avgift och avkastning. Även relevanta risk-och prestationsmått räknas på och analyseras för att få svar på vilken fondförvaltning som är bäst att välja för bästa resultat. Slutsats: Det är mer lönsamt att investera i indexfonder med lägre avgift än att betala en hög fondavgift för aktiv fondförvaltning. Aktivt förvaltade fonder lyckas oftast inte slå sitt jämförelseindex och genererar inte en högre avkastning i genomsnitt än indexfonder, som har lägre avgift. Det finns inget samband mellan avgift och avkastning för de undersökta fonderna.
343

以學名結構為基礎之網路搜尋負載量模型設計 / A Generic Construct based Workload Model for Web Search

柯怡芬, Ke, I Fen Unknown Date (has links)
網際網路搜尋是很重要的工具,可用以蒐集或尋找資訊。然而搜尋結果有時無法完全符合使用者的原意,所以網際網路搜尋引擎公司致力於發展更好的搜尋演算法,是為了增進搜尋結果的準確性並提高使用者對搜尋引擎的使用率,我們從探討的文獻中發現目前並沒有一個較彈性、開放的工具來評量網路搜尋的效能。本研究的目的就是希望能發展出一個較具彈性的負載量模型以針對網路搜尋進行效能評量。本研究著重在效能評量的負載量模型及測試套組的設計,我們希望透過以學名結構為基礎的方法擴展負載量模型的彈性,我們蒐集及研討幾個具代表性的網路搜尋演算法,並找出這些主要演算法的學名結構,以這些學名結構為基礎進行負載量模型的設計,負載量模型包含網頁模型、查詢模型與控制模型。最後,我們利用雛形實作來驗證本研究所提出的研究方法。 / Web search service is a vital way to find information on the web. However, not every piece of information found is relevant or useful. In order to improve search accuracy, most designers of the web search engines devote to working on search algorithms development and optimization. From literature, we realize that there are few open or flexible performance evaluation methods for web search service. The objective of this research is to develop a more flexible workload model based on generic construct for web search benchmarking and build an automated benchmarking environment of performance evaluation. Generic constructs are major components which can represent the web search algorithm. We collect and review literature related to web search algorithms and benchmarking. And we identify the generic constructs of key web search algorithms. The workload model consists of a page model, query model and control model. The page model describes the web page structure in web search. The query model defines some important criteria to query the web search engines. The control model defines the variables that used to set up the benchmark environment. Finally, we validate the research model through the prototype implementation.
344

SGBD open-source pour historisation de données et impact des mémoires flash / Open-source DBMS for data historization and impact of flash memories

Chardin, Brice 07 December 2011 (has links)
L'archivage de données industrielles est un problème complexe : il s'agit de stocker un grand nombre de données sur plusieurs décennies, tout en supportant la charge des insertions temps réel et des requêtes d'extraction et d'analyse. Pour ce type d'application, des produits « de niche » se sont spécialisés pour ce segment du marché : les progiciels d'historisation. Il s'agit de solutions propriétaires avec des coûts de licence de l'ordre de plusieurs dizaines de milliers d'euros, et dont le fonctionnement interne n'est pas dévoilé. Nous avons donc dans un premier temps mis en évidence les spécificités de ces progiciels d'historisation, tant au niveau des fonctionnalités que des performances. Néanmoins, l'archivage de données industrielles peut s'appliquer à des contexte très différents. L'IGCBox par exemple est un mini PC industriel utilisant MySQL pour l'archivage à court terme des données de production des centrales hydrauliques d'EDF. Ce matériel présente quelques spécificités, la principale étant son système de mémoire non volatile basé uniquement sur la technologie flash, pour sa fiabilité importante en milieu industriel et sa faible consommation d'énergie. Les SGBD possèdent pour des raisons historiques de nombreuses optimisations spécifiques aux disques durs, et le manque d'optimisation adaptée aux mémoires flash peut dégrader significativement les performances. Le choix de ce type de mémoire a donc eu des répercussions notables sur les performances pour l'insertion, avec une dégradation importante par rapport aux disques durs. Nous avons donc proposé Chronos, un SGBD dédié à l'historisation de données sur mémoires flash. Pour cela, nous avons en particulier identifié un algorithme d'écriture « quasi-séquentiel » efficace pour accéder à la mémoire, ainsi que des mécanismes de bufferisation et de mise à jour d'index optimisés pour les charges typiques de l'historisation. Les résultats expérimentaux montrent un gain significatif pour les insertions par rapport à des solutions équivalentes, d'un facteur 20 à 54. Chronos est donc une solution compétitive lorsque les insertions correspondent à une proportion importante de la charge soumise au SGBD. En particulier pour les charges typiques des IGCBox, Chronos se distingue en proposant des performances globales améliorées d'un facteur 4 à 18 par rapport aux autres solutions. / Archiving industrial data is a complex issue: a large volume of data has to be stored for several decades while meeting performance requirements for real-time insertions, along with retrieval and analysis queries. For these applications, niche products have specialized in this market segment: data historians. Data historians are proprietary solutions, with license fees of tens of thousands of dollars, and whose internal mechanisms are not documented. Therefore, we first emphasized data historian specificities, with regards to functionalities as much as performance. However, archiving industrial data can occur in very different contexts. IGCBoxes for example are industrial mini PCs using MySQL for short-term data archiving in hydroelectric power stations at EDF. These equipments expose distinctive features, mainly on their storage system based exclusively on flash memory, for its reliability in an industrial environment and its low energy consumption. For historical reasons, DBMS include many hard disk drive-oriented optimizations, and the lack of adjustment for flash memories can significantly decrease performance. This type of memory thus had notable consequences on insert performance, with a substantial drop compared with hard disk drives. We therefore designed Chronos, a DBMS for historization data management on flash memories. For that purpose, we especially identified an efficient “quasi-sequential” write pattern on flash memories, along with buffer and index management techniques optimized for historization typical workloads. Experimental results demonstrate improved performance for insertions over different solutions, by a factor of 20 to 54. Chronos is therefore competitive when insertions make up an extensive part of the workload. For instance, Chronos stands out with the typical workload of IGCBoxes, with global performance improved by a factor of 4 to 18 compared with other solutions.
345

Calibração de funcionais de densidade para cálculos de constante de acoplamento indireto spin-spin / Density functional calibration for indirect spin-spin coupling constant calculations

Guain Teixeira, Luiz Felipe 24 January 2019 (has links)
O presente trabalho descreve a investigação de funcionais de densidade para os cálculos das constantes escalares de acoplamento indireto spin-spin para diferentes tipos de átomos. 26 DFTs são inicialmente avaliados para um conjunto de calibração contendo constantes de acoplamento indireto spin-spin das moléculas HF, CO, H2O, NH3, PH3, PF3, BHF2, BF3, F2O, CH4, C2H2, C2H4 e C2H6. As estratégias utilizadas envolvem principalmente o ajuste da porcentagem de troca orbital Hartree-Fock (EXHF), a fim de melhorar a precisão. Estudos anteriores sugeriram que a utilização de uma certa porcentagem de troca exata contribui para obter resultados mais precisos para as constantes de acoplamento. Do total, BHandH, B1B95, a família B97 e a família ωB97 forneceram bons resultados para o conjunto de calibração. Em geral, DFTs híbridos contendo entre 30% e 50% de EXHF em sua composição apresentam valores mais precisos para as constantes de acoplamento. Os funcionais modificados B1B95 40% EXHF, BHandH 40% EXHF e B972B95 60% EXHF apresentam ótima precisão para rotinas de otimização de geometria e cálculo da constante de acoplamento. Para funcionais corrigidos no longo alcance, a porcentagem EXHF não é bem definida, mas pode ser ajustada em termos de três parâmetros. Uma versão de ωB97XD com γ incrementado para 0,35 tem ótima precisão, assim como umaversão de ωB97X com α incrementado para 0,2. Versões corrigidas no longo alcance de B1B95 e BHandH fornecem excelentes precisões com α =0,4, α + β =1,0 e γ ajustado ao funcional. Os funcionais de longo alcance e o B972B95 60% EXHF desafiam os níveis de teoria SOPPA(CCSD) e SOPPA(CC2), que apresentam boa precisão independente do tipo de núcleo envolvido no acoplamento. O termo do contato de Fermi está principalmente associado às diferenças nos resultados para as constantes de acoplamento calculadas entre os métodos. Segundo o teorema de Janak, os funcionais de longo alcance estão mais próximos do comportamento exato de um funcional; o aumento da troca exata em DFTs híbridos leva a um aumento da localização eletrônica, levando a concavidades menores. A utilização de um conjunto teste com mais tipos de acoplamento reforça a ótima precisão obtida com B1B95 40% EXHF, BHandH 40% EXHF e suas versões de longo alcance. / This work seeks to describe the investigation of density functionals for calculating indirect spin-spin scalar coupling constants for different types of atoms. 26 DFTs are initially evaluated for a calibration set containing HF, CO, H2O, NH3, PH3, PF3, BHF2, BF3, F2O, CH4, C2H2, C2H4 and C2H6 indirect spin-spin coupling constants. The strategies used mainly involve adjusting the percentage of Hartree-Fock orbital exchange (EXHF) in order to increase accuracy. Previous studies have suggested that the use of a certain percentage of exact exchange contributes to obtain more accurate results for coupling constants. Overall, BHandH, B1B95, B97 family and ωB97 family have provided good results for the calibration set. In general, hybrid DFTs containing between 30% and 50% EXHF in their composition show more accurate values for the coupling constants. The modified functionals B1B95 40% EXHF, BHandH 40% EXHF and B972B95 60% EXHF have optimal accuracy for geometry optimization and coupling constant calculation routines. For long-range corrected functionals, EXHF percentage is not well defined but can be adjusted in terms of three parameters. A version of ωB97XD with γ increased to 0.35 has great accuracy, as well as a version of ωB97X with α increased to 0.2. Long-range corrected versions of B1B95 and BHandH provided excellent accuracies with α =0.4, α + β =1.0 and γ adjusted to the functional. Long-range functionals and B972B95 60% EXHF challenge SOPPA(CCSD) and SOPPA(CC2) levels of theory, which have good accuracy regardless of the core type involved in the coupling. Fermi-contact term is mainly associated with the differences from results of calculated coupling constants between methods. According to Janaks theorem, long-range functionals are closest to the exact behavior of a functional; increasing exact exchange in hybrid DFTs leads to an increased electronic localization, leading to lower concavities. Using a test set with more coupling types reinforces the optimum accuracy obtained with B1B95 40% EXHF, BHandH 40% EXHF and their long-range versions.
346

高科技標竿政策因素之初探 / An Exploratory Study on High-Tech Industry Benchmark Policy

張宗凱, Chang, Chung-Kai Unknown Date (has links)
為了面對日益激烈的科技競爭,台灣多年來致力於高科技產業培育和技術能力的提升,期望提升我國全面競爭力,以面對21世紀的挑戰。在面對來自國際科技產業的競爭與國際市場日趨自由化的壓力,台灣希望在世界的科技舞台扮演舉足輕重的地位,則需要提升科技競爭力,而提升科技競爭力則有賴於完整結合了產業發展、國家資源、以及國家發展目標的高科技政策。 本研究首先以國家競爭力的觀點切入,研讀並分析主要的國際競爭力指標,並藉由競爭力指標歸納出科技先進國家的發展趨勢,以及台灣應加強的部分。並搜集科技先進國家的科技政策、目前政經情形,以及社會人文狀況,經過研讀後整理出構成高科技標竿政策之因素。並且,以新竹科學園區的六大類高科技產業為對象,進行問卷調查工作,以驗證本研究所提出之因素是否為產業界所接受,以及是否有其他意見。 研究結果顯示,在本研究所提出的31項因素中,多半皆獲得新竹科學園區經理人的認同,僅有少部分因素在不同產業或不同規模公司間,產生些微的差異。因此,本研究所提出之構成高科技標竿政策的因素,可以做為政策制定時之參考。在最後一章中,列出本研究之建議,希望對國內高科技標竿政策的制定以及科技發展有所助益。 / Taiwan had devoted to fostering the high-tech industry and promoting the technology ability to face the increasingly competition of science and technology in the coming of 21 century. To confront the competition from the international high-tech industry and the pressure of the liberalization of market, Taiwan needs to improve the competitiveness of science and technology if she wants to play an important role on the worldwide science and technology stage. Besides, Taiwan needs to integrate the development of industry, national resource, and the national goals of science and technology policy. This research uses the concept of national competitiveness first, and studies the main international competitiveness indicators. We want to derive the development trends of those advanced countries, and realize what parts we need to improve. Second, we collect the science and technology policy, the political and economical status of those countries we selected. And we sum up the benchmark factors of the high-tech industry policy. Third, we conduct a survey to verify the acceptability of the high-tech industry benchmark policy. The research results reveal that almost the benchmark principles and factors we sum up are accepted by the industry leaders.
347

物件導向資料庫系統績效評估方法之研究--以系統分析方法為之工作量模式 / Benchmark workload modeling for OODBMS - system analysis orientation

許致順, Sheu, Chih-Shun Unknown Date (has links)
現今的物件導向資料庫績效評估存在著許多的缺失。1.針對特定的應用領域,其測試工作量模型並無法代表使用者的需求。2.針對特定的資料模型,主要在衡量資料庫設計之技巧及效能。3.測試資料庫綱目變得複雜,測試運算變得繁多,使用者欲自行建立績效評估十分不容易。為了解決以上的問題,本研究擬使用物件導向系統分析的方法作為使用者建構工作量模型的工具,經過一、工作量需求分析階段。二、工作量規則描述階段。三、績效評估的測試階段。最後發展出一個用以測試物件導向資料庫的績效評估環境。由於測試之資料庫綱目與測試運算均是從使用者之需求著手,將使得測試之工作量對使用者而言,更具一致性、代表性與正確性,測試所得之數據與使用者更具相關性。另一方面,為了驗證所提出理論的可行性,我們發展了工作量模型產生器之雛型系統,使用者只須使用視覺化的圖形符號來編輯其工作量模型,系統即會產生工作量模型之規格描述,作為建構績效評估系統之進一步應用。在物件導向資料庫的應用範圍愈來愈廣泛、資料庫之資料量日益龐大的未來,以使用者需求為導向之績效評估將會是未來績效評估之發展方向。 / Existing object-oriented database benchmarks have the following drawbacks 1.They are designed to apply to specific domains, so the workload models of theirs are unable to fully represent user requirements 2.They are designed to apply to the specific data model, and their main intentions are to measure the techniques and therefore performance of database design. 3.As the database schemes are more complex and test operations are more myriad, it will be harder and harder for users intending to implement the benchmark according to the benchmark specification. In order to resolve the above problems, this thesis tries to model user's workload with system analysis methods. After 1.workload requirement analysis phase. 2.workload requirement specification phase 3.benchmark experiment phase, we will develop a benchmark application program used to benchmark the OODBMS. Because our benchmark database schemes and operations are derived from the user requirements, the workload will be more consistent, more representative and more accurate and the result will be more meaningful to users. In order to validate the theory we propose, we develop a prototype of the workload generator. After users have finished editing their workload model with visual graphic notations, the system will output workload specifications, which will be used in the later phase. As the application domain of OODBMS are more diverse and database are more huge, the trend of benchmarks is toward user requirement driven in the future.
348

Problèmes combinatoires et modèles multi-niveaux pour la conception optimale des machines électriques

Tran, Tuan Vu 18 June 2009 (has links) (PDF)
La conception des machines électriques a une longue tradition et l'approche " business as usual " est un processus itératif d'essais et d'erreur, certes convergent mais nécessairement stoppé prématurément, car trop couteux. Un perfectionnement récent a consisté à remplacer les prototypes et les maquettes par des prototypes virtuels, entièrement numériques, comme ceux fournis par la méthode des éléments finis. Néanmoins, le procédé s'arrête toujours sur une frustration car le concepteur n'est jamais sûr d'avoir exploré complètement l'espace de conception qui s'offre à lui. La démarche de conception optimale se propose d'améliorer ce processus en le guidant, c'est-à-dire en proposant une méthodologie, et en l'automatisant, c'est-à-dire en proposant des outils logiciels. Mais dans cette démarche apparaissent de nombreuses difficultés. Ainsi, les objectifs généraux de cette thèse sont multiples. Il s'agit de définir des problèmes d'optimisation spécifiques représentatifs des choix structurels et d'élaborer des benchmarks de référence : discret, multiphysique, multidisciplinaire, multi-objectif et multi-niveaux. Ensuite, il faut rechercher, adapter et qualifier les méthodes d'optimisation les mieux à même de résoudre ces problèmes. Enfin, les différentes méthodes d'optimisation proposées sont implantées et testées de façon à prouver leur efficacité et leur adaptation. Un objectif secondaire mais important est de les capitaliser et diffuser les connaissances élaborées
349

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
350

Diskkrypteringsprestanda i GNU/Linux

Ahlstedt, Sebastian, Granath Karlsson, David January 2013 (has links)
This thesis compares the impact on disk performance in a GNU/Linux  environmentwith three encryption algorithms: AES,  Serpent and Twofish in three different implementations: DM-crypt, Loop-AES and Truecrypt. For all three algorithms a key length of 256 bits is used. The thesis shows that the least performance impact during data encryption, and thus file writing, is reached by using AES or Twofish encryption implemented in DM-crypt or TrueCrypt. The thesis shows that some data operations with a sufficiently low processor utilization barely affects disk performance at all if encrypted using the optimal implementation and algorithm. It is also discovered that the performance impact during data decryption, or file reading, can be minimized by using the most efficient implementation and algorithm. The best results are met with the AES or Twofish cipher, regardless of implementation. An important conclusion that  is  drawn is that it is hard to determine a superior encryption solution for all purposes. However, by reviewing and examining the collected data from all aspects of disk performance the AES implementation in TrueCrypt is, with small marginals, determined to be the most optimal. / Undersökningen jämför hur krypteringsalgoritmerna AES, Serpent och Twofish implementerade i DM-crypt, Loop-AES och TrueCrypt påverkar diskprestandan i en GNU/Linux-miljö. Samtliga krypteringsalgoritmer tillämpas med en nyckellängd på 256 bitar. Undersökningen visar att högst skrivhastighet och således krypteringshastighet uppnås med algoritmerna AES och Twofish i DM-crypt eller Truecrypt. Krypteringens påverkan på diskprestanda är beroende av vilka typer av operationer som utförs och hur hög processorsysselsättningsgraden är. Vid  simplare  I/O-operationer har  den mest optimala  krypteringslösningen knappt någon påverkan på diskprestandan överhuvudtaget. Undersökningen visar också att påverkan av prestanda vid dekryptering är minst vid tillämpning av AES eller Twofish oavsett implementering. En viktig slutsats som dras är att det inte finns en överlägsen krypteringslösning för samtliga användningsområden. Genom att sammanställa och granska insamlad data gällande samtliga aspekter beträffande diskprestanda fastställs TrueCrypts implementation av AES till att vara den mest optimala, trots små marginaler.

Page generated in 0.0258 seconds