• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 20
  • 20
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Comparison Of Linear And Adaptive Versions Of The Turkish Pupil Monitoring System (pms) Mathematics Assessment

Gokce, Semirhan 01 July 2012 (has links) (PDF)
Until the developments in computer technology, linear test administrations within classical test theory framework is mostly used in testing practices. These tests contain a set of predefined items in a large range of difficulty values for collecting information from students at various ability levels. However, placing very easy and very difficult items in the same test not only cause wasting time and effort but also introduces possible extraneous variables into the measurement process such as possibility of guessing, chance of careless errors induced by boredom or frustration. Instead of administering a linear test there is another option that adapts the difficulty of test according to the ability level of examinees which is named as computerized adaptive test. Computerized adaptive tests use item response theory as a measurement framework and have algorithms responsible for item selection, ability estimation, starting rule and test termination. The present study aims to determine the applicability of computerized adaptive testing (CAT) to Turkish Pupil Monitoring System&rsquo / s (PMS) mathematics assessments. Therefore, live CAT study using only multiple choice items is designed to investigate whether to obtain comparable ability estimations. Afterwards, a Monte Carlo simulation study and a Post-hoc simulation study are designed to determine the optimum CAT algorithm for Turkish PMS mathematics assessments. In the simulation studies, both multiple-choice and open-ended items are used and different scenarios are tested regarding various starting rules, termination criterion, ability estimation methods and existence of exposure/content controls. The results of the study indicate that using Weighted Maximum Likelihood (WML) ability estimation method, easy initial item difficulty as starting rule and a fixed test reliability termination criterion (0.30 standard error as termination rule) gives the optimum CAT algorithm for Turkish PMS mathematics assessment. Additionally, item exposure and content control strategies have a positive impact on providing comparable ability estimations.
12

Ein Beitrag zur Lebensdauerabschätzung laufender Drahtseile

Anders, Martin 12 May 2023 (has links)
Die Dissertation widmet sich der rechnerischen Lebensdauerabschätzung laufender Drahtseile, die in verschiedensten Applikationen verwendet werden. Konkret wird die Methode Leipzig, als eine der etablierten Vorgehensweisen für die Ermittlung ertragbarer Biegewechselanzahlen für die Betriebs- und Lebensdauer laufender Drahtseile umfassend beschrieben und weiterentwickelt. Die Arbeit stellt somit den Stand der Technik in Bezug auf diese Methode dar. Neben den detaillierten Darstellungen der Herleitung der Methode, werden auch weiterführende Herangehensweisen für eine umfangreiche Analyse von Seiltrieben beschrieben sowie Hinweise und Einschätzungen zur aktuellen normativen Entwicklung hinsichtlich Auslegung und Nachweis von Drahtseilen gegeben. In Bezug auf unterschiedliche Drahtnennfestigkeiten, Verdichtungsverfahren und Grade der inneren Seilschädigung, wurden Versuchsreihen durchgeführt und ausgewertet, um dessen verbesserte Berücksichtigung innerhalb der Lebensdauerabschätzung mit der Methode Leipzig herzuleiten. Im Ergebnis werden Anpassungen für eine veränderte Interpretation der Gesamtbeanspruchung vorgestellt, die nachweislich die Genauigkeit der Lebensdauerabschätzung erhöhen und damit der steigenden Relevanz dieser Analysen Rechnung trägt. / The dissertation is dedicated to the calculative lifetime estimation of running wire ropes, which are used in a wide variety of applications. Specifically, the Leipzig method is comprehensively described and further developed as one of the established procedures for determining endurable numbers of bending cycles for the service life and lifetime of running wire ropes. The thesis thus represents the state of the art with regard to this method. In addition to the detailed presentation of the derivation of the method, further approaches for a detailed analysis of rope drives are described as well as information and assessments on the current normative development with regard to the design and proof of wire ropes. With regard to different nominal wire strengths, compaction methods and degrees of internal rope deterioration, test series were carried out and evaluated in order to derive their improved consideration within the lifetime estimation with the Leipzig method. As a result, adjustments for a modified interpretation of the overall stress are presented, which have been shown to increase the accuracy of the lifetime estimation and thus take into account the increasing relevance of these analyses.
13

Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques / Data management : quality Control of the Digital Models of Geographical Databases

Zelasco, José Francisco 13 December 2010 (has links)
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants. / A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
14

Momentové metody odhadu parametrů časoprostorových shlukových bodových procesů / Moment estimation methods for space-time cluster point processes

Kučera, Petr January 2019 (has links)
This paper is concerned with estimation of space-time shot-noise Cox process parametric models. We introduce the two-step estimation method, where in the second step we use composite likelihood or Palm likelihood. For the two-step estimation method based on Palm likelihood we prove consistency and asymptotic normality theorem. Finally we compare composite likelihood with Palm likelihood in simulation studies, where we add for comparison minimum contrast method. Results for minimum contrast method are taken from the literature. 1
15

Data-driven multi-jet and V+jets background estimation methods for top quark pair production at CMS / Méthodes d'estimation des bruits de fond multi-jet et V+jets pour la production de paires de quarks top avec CMS

Hammad, Grégory 31 August 2011 (has links)
The analysis presented in this thesis focuses on two methods developed to estimate, from data, the multi-jet and the V+jets background processes for top quark pair production occuring during proton-proton at LHC. Top quark paires are reconstructed using the CMS detector, exploiting the semi-leptonic decay channel. Both methods have been developed and studied using Monte-Carlo simulated data. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
16

空氣污染物對人體健康影響之研究 / Health Effects of Air Pollutants

洪鳴丯, Hung, Ming Feng Unknown Date (has links)
本文以流行病學法探討空氣污染物對人體健康影響之研究,主要有3個研究重點:   1.採用probit模型分析空氣污染物造成的慢性與急性健康效果:實證結果發現懸浮微粒及二氧化硫對慢性支氣管炎、肺氣腫與氣喘三種慢性病組合之罹患,有顯著的正向效果;懸浮微粒、臭氧及PSI對15種急性病症組合有顯著的促發作用。   2.運用兩階段估計法,將急性計量反應函數中之慢性疾病變數內生化:估計結果顯示懸浮微粒、臭氧及PSI對急性病症仍有顯著的促發作用,而慢性疾病變數之顯著性則大幅提高。急性健康效益的估計顯示,如果沒有將慢性疾病變數內生化,可能會造成效益的低估。   3.利用隨機效果模型分析急性panel資料:此部分以Limdep軟體進行估計,結果發現懸浮微粒、臭氧及PSI對急性病症亦有顯著的促發作用,抽煙、運動、所得與工作或學校環境有無污染等解釋變數則不顯著,與前述研究之結果不同。
17

Förbättrad tidsuppskattning för IT-projekt

Safa, Amir, Dehmer, Linus January 2010 (has links)
<p>Det finns olika strategier och många olika metoder inom strategierna för att tidsuppskatta ett IT-projekt. Dessa strategier och metoder skiljer sig mer eller mindre åt och många gånger har företag egna metoder för tidsuppskattning. Dessa strategier och metoder har samma syfte, vilket är att göra så noggranna tidsuppskattningar som möjligt för att undvika försenade projekt. Examensarbetets syfte är att visa på hur LexiConsult AB kan förbättra sina tidsuppskattningar av inkommande IT-projekt genom att följa studiens rekommendationer, vilket leder till bättre tidsuppskattningar och nöjdare kunder. Undersökningen har utförts genom en litteraturstudie, där genomgång av de olika delarna inom IT-projekt skett. Det teoretiska kapitlet ligger senare till grund för den empiriska undersökning som utförts på företaget vilket ger insikt och perspektiv i hur företaget arbetar med sina projekt. Teorin visade att en bra tidsuppskattningsmetod inkluderar alla delarna i ett projekt och att dessa måste genomgås innan en bra tidsuppskattningsmetod kan tas fram.</p><p>Det komplexa ämnet tidsuppskattning har gjort att en deduktiv ansats har valts för arbetet, där utgångspunkten ligger i teorin. Den djupa teorigenomgång som har utförts av författarna avspeglar sig i den kvalitativa forskningsmetod som valts för studien där syftet med metoden är att få djupare kunskap genom analyser och tolkningar i teori och verklighet. Författarna har försöktsäkerställa examensarbetets kvalité genom att beakta det insamlade materialets validitet, reliabilitet och relevans.</p><p>De analyser som genomförs i arbetet där LexiConsults arbetssätt analyseras mot den teori som har genomgåtts leder till ett flertal rekommendationer i slutsatsen av arbetet. Företagets brister i informationsstruktur leder till rekommendationer om införandet av en databas med kategorier av de projekt företaget utför. Vikten av bra kravspecifikationer inom tidsuppskattning leder i slutsatsen till en förbättrad kravspecifikation med uppdelning av de olika faserna i projektet med tidsuppskattning och kommentarer på varje del. Vikten av bra uppföljning av projekt framhävs och rekommendationer ges till en uppföljningsmall, vilket resulterar i designen till en sådan. Företagets arbetsmetoder och historik tas tillvara och en analogisk tidsuppskattningsmetod rekommenderas för framtida projekts tidsuppskattningar. Den analogiska metodens nackdelar förbättras genom tillämpandet av den nya kravspecifikationen där projekt delas i olika faser och tidsuppskattas separat enligt mikrostrategin inom tidsuppskattningar. Uppföljningsdokumentet samt den nya kravspecifikationen och den nya informationsstrukturen kommer enligt studiens slutsats att leda till flera positiva förändringar inom företaget. De nya förändringarna tillför större ansvar för den enskilde i projekt, bättre kunskapsdelning i företaget där erfarenhetsmässig kunskap kommer att ligga till grund för nya tidsuppskattningar, bättre beslutsunderlag för konsultchef samt för kund att lättare följa upp företagets tidsuppskattningar och hitta svagheter.Det finns olika strategier och många olika metoder inom strategierna för att tidsuppskatta ett IT-projekt. Dessa strategier och metoder skiljer sig mer eller mindre åt och många gånger har företag egna metoder för tidsuppskattning. Dessa strategier och metoder har samma syfte, vilket är att göra så noggranna tidsuppskattningar som möjligt för att undvika försenade projekt.</p><p>Examensarbetets syfte är att visa på hur LexiConsult AB kan förbättra sina tidsuppskattningar av inkommande IT-projekt genom att följa studiens rekommendationer, vilket leder till bättre tidsuppskattningar och nöjdare kunder. Undersökningen har utförts genom en litteraturstudie, där genomgång av de olika delarna inom IT-projekt skett. Det teoretiska kapitlet ligger senare till grund för den empiriska undersökning som utförts på företaget vilket ger insikt och perspektiv i hur företaget arbetar med sina projekt. Teorin visade att en bra tidsuppskattningsmetod inkluderar alla delarna i ett projekt och att dessa måste genomgås innan en bra tidsuppskattningsmetod kan tas fram.Det komplexa ämnet tidsuppskattning har gjort att en deduktiv ansats har valts för arbetet, där utgångspunkten ligger i teorin. Den djupa teorigenomgång som har utförts av författarna avspeglar sig i den kvalitativa forskningsmetod som valts för studien där syftet med metoden är att få djupare kunskap genom analyser och tolkningar i teori och verklighet. Författarna har försöktsäkerställa examensarbetets kvalité genom att beakta det insamlade materialets validitet, reliabilitet och relevans.De analyser som genomförs i arbetet där LexiConsults arbetssätt analyseras mot den teori som har genomgåtts leder till ett flertal rekommendationer i slutsatsen av arbetet. Företagets brister i informationsstruktur leder till rekommendationer om införandet av en databas med kategorier av de projekt företaget utför. Vikten av bra kravspecifikationer inom tidsuppskattning leder i slutsatsen till en förbättrad kravspecifikation med uppdelning av de olika faserna i projektet med tidsuppskattning och kommentarer på varje del. Vikten av bra uppföljning av projekt framhävs och rekommendationer ges till en uppföljningsmall, vilket resulterar i designen till en sådan. Företagets arbetsmetoder och historik tas tillvara och en analogisk tidsuppskattningsmetod rekommenderas för framtida projekts tidsuppskattningar. Den analogiska metodens nackdelar förbättras genom tillämpandet av den nya kravspecifikationen där projekt delas i olika faser och tidsuppskattas separat enligt mikrostrategin inom tidsuppskattningar. Uppföljningsdokumentet samt den nya kravspecifikationen och den nya informationsstrukturen kommer enligt studiens slutsats att leda till flera positiva förändringar inom företaget. De nya förändringarna tillför större ansvar för den enskilde i projekt, bättre kunskapsdelning i företaget där erfarenhetsmässig kunskap kommer att ligga till grund för nya tidsuppskattningar, bättre beslutsunderlag för konsultchef samt för kund att lättare följa upp företagets tidsuppskattningar och hitta svagheter.</p> / <p>There are many different strategies and different approaches within the strategies to estimate the time of an IT project. These methods and practices differ in several aspects and many times companies have developed their own method for estimating time. The common factors for these strategies and methods are the objectives, which is to make time estimation as accurate as possible, to avoid delays in projects. This study aims to show how LexiConsult AB can improve it’s time estimations by following the recommendations made in this study, which leads to reduction in their time estimates and better customer satisfaction. The study was conducted through a literature review of where the various components of IT projects are reviewed. The theoretical analysis is later the subject of the empirical investigation in the company giving instinct and perspective into how the company is working on their projects. The theory showed that a good time estimation method includes all the elements of a project and these must be examined before a good time estimation method can be developed.</p><p>Because of the complexity of this topic, a deductive approach was chosen for the study, where the starting point lies in the theory. The deep theory examination conducted by the authors is reflected in the qualitative research method chosen for study where the purpose of the method is to gain deeper knowledge through analysis and interpretation of the theory and reality.The authors have tried to ensure the quality of work by considering the collected material's validity, reliability and relevance.Because of the complexity of this topic, a deductive approach was chosen for the study, where the starting point lies in the theory. The deep theory examination conducted by the authors is reflected in the qualitative research method chosen for study where the purpose of the method is to gain deeper knowledge through analysis and interpretation of the theory and reality.The authors have tried to ensure the quality of work by considering the collected material's validity, reliability and relevance.</p><p>The analysis conducted in the study, is LexiConsult's project methods which are compared against the theory. These comparisons led to a number of recommendations in the conclusion of the study. The company's shortcomings in information structure area are identified and leads to recommendations on the establishment of a database with project categories. The importance of good requirements specifications for time estimation is identified and in the conclusion an improved specification is shown. The new specification has separated phases of the project with time estimates and comments on each part. The importance of good monitoring of the projects is highlighted in the study and recommendations are given to follow a template, resulting in the design of one. The company's working methods and use of the experience is indicative, and an analogy time estimation method is recommended for future time estimations. The analogical method has disadvantages that are improved through the new specification which the project is divided into different phases and time is estimated separately according to the Micro strategy for every phase. The recommendations made in this study leads to greater responsibility for individuals within the projects, better knowledge sharing in the company where old experiences will be the basis for the new time estimates. The new changes will lead to making the decision making within a project easier for both the costumer and LexiConsult AB.</p>
18

Imputação de dados faltantes via algoritmo EM e rede neural MLP com o método de estimativa de máxima verossimilhança para aumentar a acurácia das estimativas

Ribeiro, Elisalvo Alves 14 August 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Database with missing values it is an occurrence often found in the real world, beiging of this problem caused by several reasons (equipment failure that transmits and stores the data, handler failure, failure who provides information, etc.). This may make the data inconsistent and unable to be analyzed, leading to very skewed conclusions. This dissertation aims to explore the use of Multilayer Perceptron Artificial Neural Network (ANN MLP), with new activation functions, considering two approaches (single imputation and multiple imputation). First, we propose the use of Maximum Likelihood Estimation Method (MLE) in each network neuron activation function, against the approach currently used, which is without the use of such a method or when is used only in the cost function (network output). It is then analyzed the results of these approaches compared with the Expectation Maximization algorithm (EM) is that the state of the art to treat missing data. The results indicate that when using the Artificial Neural Network MLP with Maximum Likelihood Estimation Method, both in all neurons and only in the output function, lead the an imputation with lower error. These experimental results, evaluated by metrics such as MAE (Mean Absolute Error) and RMSE (Root Mean Square Error), showed that the better results in most experiments occured when using the MLP RNA addressed in this dissertation to single imputation and multiple. / Base de dados com valores faltantes é uma ocorrência frequentemente encontrada no mundo real, sendo as causas deste problema são originadas por motivos diversos (falha no equipamento que transmite e armazena os dados, falha do manipulador, falha de quem fornece a informação, etc.). Tal situação pode tornar os dados inconsistentes e inaptos de serem analisados, conduzindo às conclusões muito enviesadas. Esta dissertação tem como objetivo explorar o emprego de Redes Neurais Artificiais Multilayer Perceptron (RNA MLP), com novas funções de ativação, considerando duas abordagens (imputação única e imputação múltipla). Primeiramente, é proposto o uso do Método de Estimativa de Máxima Verossimilhança (EMV) na função de ativação de cada neurônio da rede, em contrapartida à abordagem utilizada atualmente, que é sem o uso de tal método, ou quando o utiliza é apenas na função de custo (na saída da rede). Em seguida, são analisados os resultados destas abordagens em comparação com o algoritmo Expectation Maximization (EM) que é o estado da arte para tratar dados faltantes. Os resultados obtidos indicam que ao utilizar a Rede Neural Artificial MLP com o Método de Estimativa de Máxima Verossimilhança, tanto em todos os neurônios como apenas na função de saída, conduzem a uma imputação com menor erro. Os resultados experimentais foram avaliados via algumas métricas, sendo as principais o MAE (Mean Absolute Error) e RMSE (Root Mean Square Error), as quais apresentaram melhores resultados na maioria dos experimentos quando se utiliza a RNA MLP abordada neste trabalho para fazer imputação única e múltipla.
19

Förbättrad tidsuppskattning för IT-projekt

Safa, Amir, Dehmer, Linus January 2010 (has links)
Det finns olika strategier och många olika metoder inom strategierna för att tidsuppskatta ett IT-projekt. Dessa strategier och metoder skiljer sig mer eller mindre åt och många gånger har företag egna metoder för tidsuppskattning. Dessa strategier och metoder har samma syfte, vilket är att göra så noggranna tidsuppskattningar som möjligt för att undvika försenade projekt. Examensarbetets syfte är att visa på hur LexiConsult AB kan förbättra sina tidsuppskattningar av inkommande IT-projekt genom att följa studiens rekommendationer, vilket leder till bättre tidsuppskattningar och nöjdare kunder. Undersökningen har utförts genom en litteraturstudie, där genomgång av de olika delarna inom IT-projekt skett. Det teoretiska kapitlet ligger senare till grund för den empiriska undersökning som utförts på företaget vilket ger insikt och perspektiv i hur företaget arbetar med sina projekt. Teorin visade att en bra tidsuppskattningsmetod inkluderar alla delarna i ett projekt och att dessa måste genomgås innan en bra tidsuppskattningsmetod kan tas fram. Det komplexa ämnet tidsuppskattning har gjort att en deduktiv ansats har valts för arbetet, där utgångspunkten ligger i teorin. Den djupa teorigenomgång som har utförts av författarna avspeglar sig i den kvalitativa forskningsmetod som valts för studien där syftet med metoden är att få djupare kunskap genom analyser och tolkningar i teori och verklighet. Författarna har försöktsäkerställa examensarbetets kvalité genom att beakta det insamlade materialets validitet, reliabilitet och relevans. De analyser som genomförs i arbetet där LexiConsults arbetssätt analyseras mot den teori som har genomgåtts leder till ett flertal rekommendationer i slutsatsen av arbetet. Företagets brister i informationsstruktur leder till rekommendationer om införandet av en databas med kategorier av de projekt företaget utför. Vikten av bra kravspecifikationer inom tidsuppskattning leder i slutsatsen till en förbättrad kravspecifikation med uppdelning av de olika faserna i projektet med tidsuppskattning och kommentarer på varje del. Vikten av bra uppföljning av projekt framhävs och rekommendationer ges till en uppföljningsmall, vilket resulterar i designen till en sådan. Företagets arbetsmetoder och historik tas tillvara och en analogisk tidsuppskattningsmetod rekommenderas för framtida projekts tidsuppskattningar. Den analogiska metodens nackdelar förbättras genom tillämpandet av den nya kravspecifikationen där projekt delas i olika faser och tidsuppskattas separat enligt mikrostrategin inom tidsuppskattningar. Uppföljningsdokumentet samt den nya kravspecifikationen och den nya informationsstrukturen kommer enligt studiens slutsats att leda till flera positiva förändringar inom företaget. De nya förändringarna tillför större ansvar för den enskilde i projekt, bättre kunskapsdelning i företaget där erfarenhetsmässig kunskap kommer att ligga till grund för nya tidsuppskattningar, bättre beslutsunderlag för konsultchef samt för kund att lättare följa upp företagets tidsuppskattningar och hitta svagheter.Det finns olika strategier och många olika metoder inom strategierna för att tidsuppskatta ett IT-projekt. Dessa strategier och metoder skiljer sig mer eller mindre åt och många gånger har företag egna metoder för tidsuppskattning. Dessa strategier och metoder har samma syfte, vilket är att göra så noggranna tidsuppskattningar som möjligt för att undvika försenade projekt. Examensarbetets syfte är att visa på hur LexiConsult AB kan förbättra sina tidsuppskattningar av inkommande IT-projekt genom att följa studiens rekommendationer, vilket leder till bättre tidsuppskattningar och nöjdare kunder. Undersökningen har utförts genom en litteraturstudie, där genomgång av de olika delarna inom IT-projekt skett. Det teoretiska kapitlet ligger senare till grund för den empiriska undersökning som utförts på företaget vilket ger insikt och perspektiv i hur företaget arbetar med sina projekt. Teorin visade att en bra tidsuppskattningsmetod inkluderar alla delarna i ett projekt och att dessa måste genomgås innan en bra tidsuppskattningsmetod kan tas fram.Det komplexa ämnet tidsuppskattning har gjort att en deduktiv ansats har valts för arbetet, där utgångspunkten ligger i teorin. Den djupa teorigenomgång som har utförts av författarna avspeglar sig i den kvalitativa forskningsmetod som valts för studien där syftet med metoden är att få djupare kunskap genom analyser och tolkningar i teori och verklighet. Författarna har försöktsäkerställa examensarbetets kvalité genom att beakta det insamlade materialets validitet, reliabilitet och relevans.De analyser som genomförs i arbetet där LexiConsults arbetssätt analyseras mot den teori som har genomgåtts leder till ett flertal rekommendationer i slutsatsen av arbetet. Företagets brister i informationsstruktur leder till rekommendationer om införandet av en databas med kategorier av de projekt företaget utför. Vikten av bra kravspecifikationer inom tidsuppskattning leder i slutsatsen till en förbättrad kravspecifikation med uppdelning av de olika faserna i projektet med tidsuppskattning och kommentarer på varje del. Vikten av bra uppföljning av projekt framhävs och rekommendationer ges till en uppföljningsmall, vilket resulterar i designen till en sådan. Företagets arbetsmetoder och historik tas tillvara och en analogisk tidsuppskattningsmetod rekommenderas för framtida projekts tidsuppskattningar. Den analogiska metodens nackdelar förbättras genom tillämpandet av den nya kravspecifikationen där projekt delas i olika faser och tidsuppskattas separat enligt mikrostrategin inom tidsuppskattningar. Uppföljningsdokumentet samt den nya kravspecifikationen och den nya informationsstrukturen kommer enligt studiens slutsats att leda till flera positiva förändringar inom företaget. De nya förändringarna tillför större ansvar för den enskilde i projekt, bättre kunskapsdelning i företaget där erfarenhetsmässig kunskap kommer att ligga till grund för nya tidsuppskattningar, bättre beslutsunderlag för konsultchef samt för kund att lättare följa upp företagets tidsuppskattningar och hitta svagheter. / There are many different strategies and different approaches within the strategies to estimate the time of an IT project. These methods and practices differ in several aspects and many times companies have developed their own method for estimating time. The common factors for these strategies and methods are the objectives, which is to make time estimation as accurate as possible, to avoid delays in projects. This study aims to show how LexiConsult AB can improve it’s time estimations by following the recommendations made in this study, which leads to reduction in their time estimates and better customer satisfaction. The study was conducted through a literature review of where the various components of IT projects are reviewed. The theoretical analysis is later the subject of the empirical investigation in the company giving instinct and perspective into how the company is working on their projects. The theory showed that a good time estimation method includes all the elements of a project and these must be examined before a good time estimation method can be developed. Because of the complexity of this topic, a deductive approach was chosen for the study, where the starting point lies in the theory. The deep theory examination conducted by the authors is reflected in the qualitative research method chosen for study where the purpose of the method is to gain deeper knowledge through analysis and interpretation of the theory and reality.The authors have tried to ensure the quality of work by considering the collected material's validity, reliability and relevance.Because of the complexity of this topic, a deductive approach was chosen for the study, where the starting point lies in the theory. The deep theory examination conducted by the authors is reflected in the qualitative research method chosen for study where the purpose of the method is to gain deeper knowledge through analysis and interpretation of the theory and reality.The authors have tried to ensure the quality of work by considering the collected material's validity, reliability and relevance. The analysis conducted in the study, is LexiConsult's project methods which are compared against the theory. These comparisons led to a number of recommendations in the conclusion of the study. The company's shortcomings in information structure area are identified and leads to recommendations on the establishment of a database with project categories. The importance of good requirements specifications for time estimation is identified and in the conclusion an improved specification is shown. The new specification has separated phases of the project with time estimates and comments on each part. The importance of good monitoring of the projects is highlighted in the study and recommendations are given to follow a template, resulting in the design of one. The company's working methods and use of the experience is indicative, and an analogy time estimation method is recommended for future time estimations. The analogical method has disadvantages that are improved through the new specification which the project is divided into different phases and time is estimated separately according to the Micro strategy for every phase. The recommendations made in this study leads to greater responsibility for individuals within the projects, better knowledge sharing in the company where old experiences will be the basis for the new time estimates. The new changes will lead to making the decision making within a project easier for both the costumer and LexiConsult AB.
20

Nouvelle approche d'estimation de la vulnérabilité des aquifères combinant le modèle DRASTIC et la sensibilité des sols à l'infiltration. Application à l'aquifère du Dogger dans l'interfluve Clain-Vienne, Poitou-Charentes, France / New approach of estimation of the vulnerability of aquiferes combining the model DRASTIC and the sensibility of grounds in the infiltration. Application in the aquifer of Dogger in the interfluve Clain-Vienne, Poitou-Charentes, France

Shorieh, Amani 16 July 2014 (has links)
Cette étude s'intéresse, par l'utilisation de la cartographie, à l'évaluation de la vulnérabilité des eaux souterraines aux pollutions en particulier à la vulnérabilité intrinsèque des nappes libres. Dans cette optique, une étude bibliographique sur les méthodes d'estimation de la vulnérabilité des nappes a été menée. A partir de cette étude bibliographique on a trouvé que la méthode DRASTIC a été considérée comme la base de la plupart des études de vulnérabilité.<br>L'aquifère du Dogger convient tout-à-fait à une application des différentes méthodologies. En effet, grâce à son importance en tant que source d'eau potable et d'irrigation ainsi qu'à sa principale problématique qui est la vulnérabilité aux concentrations en nitrates (on peut la considérer comme une nappe très vulnérable aux pollutions superficielles, surtout aux surconcentrations en nitrates), une base de données à la fois volumineuse et diversifiée a été acquise sur plusieurs décennies de travaux de prospection, de suivi et d'exploitation. On peut retrouver ces données sous forme de fiches, de tableaux de cartes et de comptes-rendus.<br>Une description générale de la zone d'étude nous a permis de déterminer les paramètres disponibles dans cette aquifère afin de déterminer quelle méthode il convenait d'appliquer à cette nappe. Ainsi, une étude hydrogéochimique à été réalisée à partir d'une campagne de prélèvements et d'analyses chimiques des eaux souterraines. Ces analyses chimiques, en particulier les analyses des teneurs en nitrates, ont été utilisées pour valider les cartes de la vulnérabilité de l'aquifère du Dogger.<br>Donc, dans le but de cartographier la vulnérabilité de la nappe du Dogger dans le département de la Vienne, on a appliqué deux méthodes, et tout d'abord la méthode DRASTIC (Aller et al. 1987). La carte obtenue par cette méthode est mal corrélée avec la concentration en nitrates.<br>En effet cette méthode attribue un poids faible au sol dans le calcul de l'indice final et elle a complètement ignoré les rôles des activités agricoles. C'est pourquoi on a proposé une nouvelle méthode dévirée de la méthode DRASTIC. Cette seconde méthode est plus adaptée à la nappe libre localisée sous la surface d'une activité agricole très importante. En prenant en considération les neuf paramètres qui déterminent la sensibilité des sols à l'infiltration verticale et l'occupation du sol. La nouvelle carte a permis d'obtenir une meilleure corrélation entre les concentrations en nitrates mesurées et les zones vulnérables par rapport à la méthode originale.<br> Le système d'information géographique avec le logiciel Arc Map (10) a représenté un facteur très important pour réaliser ce projet. Ce SIG a permis de construire une base de toutes les données existantes "géologiques, hydrogéologiques, chimiques et les caractéristiques du sol". Cette base, d'une part permet de disposer pour l'aquifère du jurassique moyen dans la zone d'interfluve Clain-Vienne, des couches d'informations complètes qui pourraient être une référence pour plusieurs études hydrogéologiques. D'autre part, le SIG a été très précieux dans le domaine de la protection et de la gestion des nappes. Il a pu faciliter l'application des méthodes d'estimation de la vulnérabilité, grâce à ses outils (coupage, superposition, méthode d'interpolation, calcul mathématique) qui permettent de traiter un grand nombre des données en superposant toutes les cartes de chaque facteur sur un support de même taille, ainsi que d'intégrer et combiner ces cartes. Nous pouvons à l'aide de tous ces outils, calculer les indices finaux et produire une carte finale de la vulnérabilité qui devient elle-même un outil facile de comparaison avec les teneurs en nitrates afin de valider les résultats. / The main objective of this PhD thesis is the optimization of a novel approach to estimate groundwater vulnerability using both the DRASTIC model and soil infiltration sensitivity. The model will be then applied to the Dogger aquifer of Poitiers, Center West France; to delineate areas that are more susceptible to contamination from anthropogenic sources. This is an important element for sensible resource management and land use planning.<br>Poitou-Charentes, located in the Center-West of France, is a region where economy is mainly based on agriculture. It is made up of 4 Departments (Vienne, Charente, Charente Maritime, Deux-Sèvres) and is largely supplied by groundwater, both for consumption and irrigation. This resources thus vital to the region and its preservation is a major issue. The objective of this study is the determination of the roundwater quality in the Dogger aquifer of Poitiers (Vienne Department), which is the main water resource for his area in order to achieve a better understanding of the factors influencing groundwater mineralization. Sixty-six wells, distributed over the study area, were sampled and analyzed for major ions (Ca2+, M2+, Na+, K+, HCO3-, Cl-, SO42-, NO3-). The hydrochemistry of groundwater is determined by both natural processes, and anthropogenic factors. Natural factors are dissolution of carbonate and dolomite minerals, and cation exchanges with clays, while anthropogenic factors are contaminant infiltration of wastewater and agricultural fertilizers. Nitrate is the main contaminant found in the groundwater and makes this resource unsuitable for consumption at some places.<br>This study focuses, by the use of mapping, on the assessment of the vulnerability of groundwater to pollution in particular to the intrinsic vulnerability of unconfined aquifers. The DRASTIC method was considered the most basic vulnerability studies.<br>In this study, we intend initially to implement the DRASTIC model, as it was developed by US-EPA. The results of application of DRASTIC will be discussed and validated against available knowledge on Dogger groundwater quality, and in particular nitrate levels. Secondly, the development of a new approach will be developed based on a combination of DRASTIC model and a concept recently developed by the Chamber of Agriculture of Vienne soil susceptibility to infiltration. The results showed that this new approach results in a vulnerability assessment of the aquifer is entirely consistent with the state of contamination of the well and integrates all the parameters (risk parameters intrinsic parameters) involved in transferring pollutants from the soil surface to the well.<br>

Page generated in 0.1172 seconds