• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 45
  • 27
  • 26
  • 24
  • 21
  • 16
  • 15
  • 12
  • 7
  • 6
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 456
  • 71
  • 56
  • 55
  • 47
  • 40
  • 39
  • 35
  • 31
  • 31
  • 30
  • 30
  • 29
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Undergraduate information systems in the UK : analysing curriculum skills and industry needs

Stefanidis, Angelos January 2014 (has links)
In recent years there have been repeated calls for universities to better equip students with skills which are relevant to business and industry. The field of Information Systems (IS), along with the wider discipline of computing, has often been described as outdated, slow to adopt new technologies and unable to keep up with the fast pace of change of the real world . Exacerbating the issue of academic relevance in relation to industry needs, universities around the world have experienced a growing disinterest in the study of IS and computing, resulting in worryingly low levels of new graduates who do not meet industry demands. To understand the contentious relationship between academia and business in relation to IS, the research presented in this thesis investigates the current IS undergraduate provision in the UK and its alignment with the skill requirements of the IS industry. This is achieved through a two-stage approach of examining the position and expectations of each stakeholder, followed by the development of a method to facilitate the alignment of their inter-related needs. As part of the first stage, the investigation into the academic stakeholder undertakes a holistic analysis of IS curriculum to quantify its content. This leads to the identification of original Career Tracks which specify the IS careers promoted by the curriculum. The second stage involves the investigation of the business stakeholder measuring the careers in demand and the skills that support them. The resulting findings from these investigations show that it is possible to determine the skills required by IS graduates in the UK to meet the demands of industry. This is achieved through the use of a newly developed IS Course Survey Framework that enables the configuration of IS courses to align to specific career tracks, thus mapping directly to the needs of industry as expressed through their job requirements and associated skills demand.
292

Benchmark of RELAP5 Check Valve Models against Experimental Data

Gardell, Jens January 2013 (has links)
The use of check valves in the nuclear industry is of great importance from a safety precaution point ofview (McElhaney, 1995). Choosing check valves for these high-pressurized systems comes with agreat challenge. The valves causes what is called check valve slams when closing, leading to a hugepressure wave traveling through the system. To prevent this from happening calculations have to bedone to see what kind of forces are generated during a check valve slam. When the forces are known itis easier designing systems that will endure these slams. A commonly used software in the nuclearindustry is RELAP5 (Reactor Excursion and Leak Analysis Program), its main purpose is to calculatetransients in piping systems. This program can also be used when calculating a check valve slam. Buthow precise is the code compared to the real event? By doing an experiment measuring pressures created by swing check valves during slams, the codewas compared to real data and analyzed to decide what was of importance when modeling for thesetypes of simulations. The RELAP5 code was not initially designed to calculate transients during a check valve slam. This isclearly shown when the code overestimates the pressure waves in the system when using themanufacturer data for the check valve model. Matching the data from the simulations in RELAP5 withthe data recorded from the experiment is not easy. The parameters used for this have no connection tothe specifications for the check valve, which means that transients are hard to estimate withoutexperimental data.
293

The predictive power of two measures on academic success of first year B Ed English major students / Rhelda Krügel

Krügel, Rhelda January 2011 (has links)
The research focused on the importance of and the problem of English proficiency/literacy regarding Grade 12 learners exiting the school system and seeking entry at Institutions of Higher Learning (IHLs). Grade 12 learners’ final results have been used as a benchmark for admission into tertiary education for many years. These results have come under scrutiny over the past few years. IHLs are faced with the problem to generate ways to address the access of ill-prepared learners exiting Grade 12 and then to solve the problem of low levels of throughput and high drop-out rates among first year students, therefore the multi-faceted nature of access into South African IHLs was discussed, as well as alternative routes to enter IHLs. The researcher has experienced that the dropout rates of first year BEd English major students have been rather high. The purpose of this research was to determine what the predictive power of two measures, the English matric results of the National Senior Certificate (NSC) and the English Literacy Skills Assessment (ELSA) were on the academic success of first year BEd English major students of the North-West University on the Vaal Triangle Campus. This was primarily done to improve first year BEd English major students’ English proficiency/literacy, as well as to increase their throughput rate. The major findings of this study pointed to the lack of English language proficiency/literacy of first year BEd English major students and the low throughput rate of these students. Although the ELSA proved to be the best predictor of academic success for first year BEd English major students, the Grade 12 English results also showed a statistical significant prediction capability. The results showed that there was no significant difference between ELSA 1 (which was used as pre-test) and ELSA 2 (which was used as post-test). An improvement in the ELSA 2 results was expected, as it was written as a post-test at the end of the first year BEd English major modules, indicating that the curriculum of the first year BEd English major students had little or no positive influence on the results of the ELSA 2. This resulted in the recommendation that it would be to the advantage of first year BEd English major students to change the current first year BEd English major curriculum in order to improve students’ English proficiency/literacy, as well as their throughput rate, which will result in improved academic success. / PhD, Teaching and Learning, North-West University, Vaal Triangle Campus, 2012
294

An unstructured numerical method for computational aeroacoustics

Portas, Lance O. January 2009 (has links)
The successful application of Computational Aeroacoustics (CAA) requires high accuracy numerical schemes with good dissipation and dispersion characteristics. Unstructured meshes have a greater geometrical flexibility than existing high order structured mesh methods. This work investigates the suitability of unstructured mesh techniques by computing a two-dimensionallinearised Euler problem with various discretisation schemes and different mesh types. The goal of the present work is the development of an unstructured numerical method with the high accuracy, low dissipation and low dispersion required to be an effective tool in the study of aeroacoustics. The suitability of the unstructured method is investigated using aeroacoustic test cases taken from CAA Benchmark Workshop proceedings. Comparisons are made with exact solutions and a high order structured method. The higher order structured method was based upon a standard central differencing spatial discretisation. For the unstructured method a vertex-based data structure is employed. A median-dual control volume is used for the finite volume approximation with the option of using a Green-Gauss gradient approximation technique or a Least Squares approximation. The temporal discretisation used for both the structured and unstructured numerical methods is an explicit Runge-Kutta method with local timestepping. For the unstructured method, the gradient approximation technique is used to compute gradients at each vertex, these are then used to reconstruct the fluxes at the control volume faces. The unstructured mesh types used to evaluate the numerical method include semi-structured and purely unstructured triangular meshes. The semi-structured meshes were created directly from the associated structured mesh. The purely unstructured meshes were created using a commercial paving algorithm. The Least Squares method has the potential to allow high order reconstruction. Results show that a Weighted Least gradient approximation gives better solutions than unweighted and Green-Gauss gradient computation. The solutions are of acceptable accuracy on these problems with the absolute error of the unstructured method approaching that of a high order structured solution on an equivalent mesh for specific aeroacoustic scenarios.
295

Le rôle des collisions avec l'hydrogène dans la determination hors-ETL de l'abondance du fer dans les étoiles froides / Non-LTE iron abundance determination in cool stars : the role of hydrogen collisions

Ezzeddine, Rana 07 December 2015 (has links)
La détermination d'abondances stellaires très précises a toujours été et reste un point clé de toute analyse spectroscopique.Cependant, de nombreuses études ont montré que l'hypothèse de l'équilibre thermodynamique local (ETL), largement utilisée dans les analyses spectroscopiques est inadéquate pour déterminer les abondances et les paramètres stellaires des étoiles géantes et pauvres en métaux où les effets hors-ETL dominent. C'est pourquoi, une modélisation hors-ETL des spectres stellaires est cruciale afin de reproduire les observations et ainsi déterminer avec précision les paramètres stellaires.Cette modélisation hors-ETL nécessite l'utilisation d'un grand jeu de données atomiques, qui ne sont pas toujours connues avec certitude. Dans les étoiles froides, les taux de collisions de l'atome d'hydrogène sont une des principales sources d'incertitudes. Ces taux sont souvent calculés en considérant une approche classique (l'approximation de Drawin) pour les transitions permises lié-lié et les transitions d'ionisations. Cette approche classique tend à surestimer les taux de collisions et ne reproduit pas correctement le comportement avec les énergies.Dans cette thèse, nous démontrons que l'approximation de Drawin ne peut pas décrire les taux de collisions dans le cas de l'atome d'hydrogène. Nous présentons une nouvelle méthode pour estimer ces taux, par le biais d'ajustement sur des taux quantiques existant pour d'autres éléments.Nous montrons que cette méthode d'ajustement quantique (MAQ) est satisfaisante pour les modélisations hors-ETL lorsque les taux quantiques dédiés ne sont pas effectivement disponibles.Nous testons cette nouvelle méthode, avec le modèle d'atome de Fer que nous avons développé, sur des étoiles de référence issues « du Gaia-ESO survey ».En partant de paramètres photosphériques non-spectroscopiques connus, nous déterminons les abondances (1D) en fer de ces étoiles de référence dans les cas ETL et hors-ETL .Nos résultats dans le cas hors ETL conduisent à un excellent accord entre les abondances de FeI et FeII avec de faibles écarts types de raies à raies, particulièrement dans le cas des étoiles pauvres en métaux.Notre méthode est validée par comparaison avec de nouveaux calculs quantiques préliminaires sur l'atome de Fe I et d'hydrogène, dont les ajustements sont en excellent accord avec les nôtres. / Determination of high precision abundances has and will always be an important goal of all spectroscopic studies. The use of LTE assumption in spectroscopic analyses has been extensively shown in the literature to badly affect the determined abundances and stellar parameters, especially in metal-poor and giant stars which can be subject to large non-LTE effects. Non-LTE modeling of stellar spectra is therefore essential to accurately reproduce the observations and derive stellar abundances. Non-LTE calculations require the inputof a bulk of atomic data, which may be subject to uncertainties. In cool stars, hydrogen collisional rates are a major source of uncertainty, which are often approximated using a classical recipe (the Drawin approximation) for allowed bound-bound, and ionization transitions only. This approximation has been shown to overestimate the collisional rates, and does not reproduce the correct behavior with energies. We demonstrate in this dissertation the inability of the Drawin approximation to describe the hydrogen collisional rates.We introduce a new method to estimate these rates based on fitting the existing quantum rates of other elements. We show that this quantum fitting method (QFM) performs well in non-LTE calculations when detailed quantum rates are not available. We test the newly proposed method, with a complete iron model atom that we developed, on a reference set of stars from the Gaia-ESO survey. Starting from well determined non-spectroscopic atmospheric parameters, we determine 1D, non-LTE, and LTE iron abundances for this set ofstars. Our non-LTE results show excellent agreement between Fe I and Fe II abundances and small line-by-line dispersions, especially for the metal-poor stars. Our method is validated upon comparison with new preliminary Fe I+H quantum calculations, whose fits show an excellent agreement with ours.
296

Nouvelles approches pour la synthèse de lois de commande non linéaires robustes. Application à un actionneur électropneumatique et proposition d'une solution au problème de redécollage

Turki, Karima 23 September 2010 (has links) (PDF)
Une partie des travaux présentés dans ce mémoire est inspirée du modèle mathématique écrit sous forme " semi strict feedback " du vérin électropneumatique présent au centre d'essais Fluid Power du laboratoire Ampère. En effet, ce modèle a suscité un approfondissement des travaux de recherche concernant la synthèse de lois de commandes non linéaires robustes des systèmes " strict feedback " (ou triangulaires) généraux. Ainsi deux approches directes sont développées pour l'élaboration de lois de commandes continues mono et multidimensionnelles en suivi de trajectoires. La stabilité exponentielle globale du point d'équilibre est prouvée pour le système nominal. La preuve de la stabilité au sens entrée bornée / état borné (" input-state stable ") est également proposée dans le cas de variations paramétriques ou de dynamiques mal modélisées. De plus, une solution au problème du suivi de trajectoire pour une classe de systèmes non linéaires monodimensionnels sous forme " strict feedback " avec une dynamique interne à minimum ou non minimum de phase est énoncée. Après un rappel des modèles de simulation et de commande utilisés, la mise en oeuvre sur le vérin électropneumatique des approches proposées est alors décrite. Les résultats expérimentaux obtenus sont convaincants et ont permis de compléter le benchmark de l'ensemble des travaux du groupe "Automatique, Commande et Mécatronique " du laboratoire par une extension du tableau comparatif initialisé en 1999 des lois de commandes appliquées à ce type d'actionneur. Enfin, une solution est proposée pour résoudre le phénomène du redécollage du vérin électropneumatique. Ce problème, rencontré par le groupe depuis de nombreuses années, concerne toutes les commandes linéaires et non linéaires mono et multidimensionnelles étudiées au laboratoire. Il se traduit par un mouvement saccadé du vérin lorsque les trajectoires suivies en position comportent des phases statiques. Il résulte conjointement de l'existence des forces de frottement sec et du fait que le système atteint lors de ces régimes seulement un équilibre mécanique alors que les pressions dans les chambres continuent à évoluer. Pour pallier à cet inconvénient, la dernière partie de ce mémoire propose de commuter la commande sur deux régulations de pressions quand le système atteint cet équilibre partiel. Cette technique est finalement mise en oeuvre et son efficacité est constatée.
297

Formulation, développement et validation d'éléments finis de type coques volumiques sous-intégrés stabilisés utilisables pour des problemes a cinématique et comportement non linéaires

Trinh, Vuong-Dieu 20 April 2009 (has links) (PDF)
Le recours aux logiciels de simulation basés sur la méthode des éléments finis devenant de plus en plus systématique dans les différents secteurs de l'industrie, l'efficacité et la précision de ces derniers deviennent des propriétés déterminantes. Dans les situations les plus courantes, les structures minces nécessitent une analyse précise et efficace, rendue possible par les éléments coques. En présence de structures dans lesquelles coexistent des parties minces et des zones plus épaisses, l'utilisation de ces éléments est encore plus cruciale. Ce travail est une contribution au développement et à la validation d'éléments finis solide-coques. Les déplacements nodaux sont les seuls degrés de liberté et ils sont munis d'un ensemble de points d'intégration distribués le long d'une direction préférentielle, désignée comme “l'épaisseur”. Une intégration réduite dans le plan moyen est utilisée. La loi élastique 3D est modifiée pour s'approcher de la situation coque et atténuer les verrouillages. Grâce à ses formulations particulières, ces éléments solide-coques se connectent naturellement aux éléments 3D et présentent une bonne performance dans des applications de structures minces et pour des problèmes dominés par la flexion. Il s'agit des trois nouveaux éléments isoparamétriques SHB6, SHB15, et SHB20. L'analyse détaillée d'une potentielle déficience du rang de la matrice de raideur a révélé que ces derniers ne possèdent pas de modes à énergie nulle et qu'aucune stabilisation n'est donc nécessaire. Néanmoins, nous proposons des modifications basées sur la méthode bien connue “Assumed Strain”, pour l'opérateur gradient discrétisé de l'élément SHB6, dans le but d'améliorer sa vitesse de convergence. Pour illustrer les capacités de ces éléments, ses performances sont évaluées sur un ensemble de cas tests en configurations linéaire ou non-linéaire, communément utilisés dans la littérature pour tester les éléments finis de type coques. En particulier, il est montré que le nouvel élément SHB6 joue un rôle très utile en tant que complément à l'élément hexaèdre SHB8PS, ce qui nous permet ainsi de mailler des géométries arbitraires.
298

A Study of Scalability and Performance of Solaris Zones

Xu, Yuan January 2007 (has links)
<p>This thesis presents a quantitative evaluation of an operating system virtualization technology known as Solaris Containers or Solaris Zones, with a special emphasis on measuring the influence of a security technology known as Solaris Trusted Extensions. Solaris Zones is an operating system-level (OS-level) virtualization technology embedded in the Solaris OS that primarily provides containment of processes within the abstraction of a complete operating system environment. Solaris Trusted Extensions presents a specific configuration of the Solaris operating system that is designed to offer multi-level security functionality.</p><p>Firstly, we examine the scalability of the OS with respect to an increasing number of zones. Secondly, we evaluate the performance of zones in three scenarios. In the first scenario we measure - as a baseline - the performance of Solaris Zones on a 2-CPU core machine in the standard configuration that is distributed as part of the Solaris OS. In the second scenario we investigate the influence of the number of CPU cores. In the third scenario we evaluate the performance in the presence of a security configuration known as Solaris Trusted Extensions. To evaluate performance, we calculate a number of metrics using the AIM benchmark. We calculate these benchmarks for the global zone, a non-global zone, and increasing numbers of concurrently running non-global zones. We aggregate the results of the latter to compare aggregate system performance against single zone performance.</p><p>The results of this study demonstrate the scalability and performance impact of Solaris Zones in the Solaris OS. On our chosen hardware platform, Solaris Zones scales to about 110 zones within a short creation time (i.e., less than 13 minutes per zone for installation, configuration, and boot.) As the number of zones increases, the measured overhead of virtualization shows less than 2% of performance decrease for most measured benchmarks, with one exception: the benchmarks for memory and process management show that performance decreases of 5-12% (depending on the sub-benchmark) are typical. When evaluating the Trusted Extensions-based security configuration, additional small performance penalties were measured in the areas of Disk/Filesystem I/O and Inter Process Communication. Most benchmarks show that aggregate system performance is higher when distributing system load across multiple zones compared to running the same load in a single zone.</p>
299

EC State aid rules : An analysis of the selectivity criterion

Aldestam, Mona January 2005 (has links)
The application of Art. 87(1) EC to taxes above all is connected to the application of the derogation method, which appears to be part of the selectivity criterion. This dissertation examines the application of the derogation method and the assessment of the selectivity criterion applied to taxes, primarily de lege lata, but also de lege ferenda. It begins with an analysis of the relationship among the criteria of Article 87(1) EC and continues with an analysis of the relationship between the derogation method and the assessment of the selectivity criterion applied to taxes. Several scholars have criticised the application of the derogation method because of the difficulty of identifying a derogation and of establishing the benchmark against which the derogation should be assessed. In this dissertation both the benchmark and the establishment of a derogation is analysed, partly with reference to the tax expenditure debate that occurred in the subject area of international taxation during the 1970s and 1980s. The selectivity criterion applied to taxes contains an assessment of justification, whereby the selective nature of a measure can be justified on the basis of the nature or general scheme of the system: Therfore the meaning and implications of this assessment are also examined. After all these issues have been examined de lege lata, the extents to which the application of the derogation method and the assessment of the selectivity criterion follow a logical system are discussed and recommendations for eliminating the identified deficiences are put forward.
300

Validierung des gekoppelten neutronenkinetischen-thermohydraulischen Codes ATHLET/DYN3D mit Hilfe von Messdaten des OECD Turbine Trip Benchmarks

Kliem, Sören, Grundmann, Ulrich 31 March 2010 (has links) (PDF)
Das Vorhaben bestand in der Validierung des gekoppelten neutronenkinetisch-thermohydraulischen Programmkomplexes ATHLET/DYN3D für Siedewasserreaktoren durch Teilnahme an dem OECD/NRC Benchmark zum Turbinenschnellschluss. Das von der OECD und der amerikanischen NRC definierte Benchmark basiert auf einem Experiment mit Schließens des Turbinenschnellschlussventils, das 1977 im Rahmen einer Serie von 3 Experimenten im Kernkraftwerk Peach Bottom 2 durchgeführt wurde. Im Experiment erzeugte das Schließen des Ventils eine Druckwelle, die sich unter Abschwächung bis in den Reaktorkern ausbreitete. Die durch den Druckanstieg bewirkte Kondensation von Dampf im Reaktorkern führte zu einem positiven Reaktivitätseintrag. Der folgende Anstieg der Reaktorleistung wurde durch die Rückkopplung und das Einfahren der Regelstäbe begrenzt. Im Rahmen des Benchmarks konnten die Rechenprogramme durch Vergleiche mit den Messergebnissen und den Ergebnissen der anderen Teilnehmer an dem Benchmark validiert werden. Das Benchmark wurde in 3 Phasen oder Exercises eingeteilt. Die Phase I diente der Überprüfung des thermohydraulischen Modells für das System bei vorgegebener Leistungsfreisetzung im Kern. In der Phase II wurden 3-dimensionale Berechnungen des Reaktorkerns für vorgegebene thermohydraulische Randbedingungen durchgeführt. Die gekoppelten Rechnungen für das ausgewählte Experiment und für 4 extreme Szenarien erfolgten in der Phase III. Im Rahmen des Projekts nahm FZR an Phase II und Phase III des Benchmarks teil. Die Rechnungen für Phase II erfolgten mit dem Kernmodell DYN3D unter Berücksichtigung der Heterogenitätsfaktoren und mit 764 thermohydraulischen Kanälen (1 Kanal/Brennelement). Der ATHLET-Eingabedatensatz für die Reaktoranlage wurde von der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) übernommen und für die Rechnungen zu Phase III, die mit der parallelen Kopplung von ATHLET mit DYN3D erfolgten, geringfügig modifiziert. Für räumlich gemittelte Parameter wurde eine gute Übereinstimmung mit den Messergebnissen und den Resultaten anderer Codes erzielt. Der Einfluss der Modellunterschiede wurde mit Hilfe von Variantenrechnungen zu Phase II untersucht. So können Unterschiede in der Leistungs- und Voidverteilung in einzelnen Brennelementen auf die unterschiedliche neutronenkinetische und thermohydraulische Modellierung des Reaktorkerns zurückgeführt werden. Vergleiche zwischen ATHLET/DYN3D (parallele Kopplung) und ATHLET/QUABOX-CUBBOX (interne Kopplung) zeigen für räumlich gemittelte Parameter nur geringe Unterschiede. Abweichungen in den lokalen Parametern können im wesentlichen mit der unterschiedlichen Modellierung des Reaktorkerns erklärt werden (geringere Anzahl von modellierten Kühlkanälen, keine Berücksichtigung der Heterogenitätsfaktoren und ein anderes Siedemodell in der Rechnung mit ATHLET/QUABOX-CUBBOX). Die Rechnungen für die extremen Szenarien von Phase III zeigen die Anwendbarkeit des gekoppelten Programms ATHLET/DYN3D für die Bedingungen bei Störfällen, die weit über das Experiment hinausgehen.

Page generated in 0.1606 seconds