• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 64
  • 53
  • 31
  • 26
  • 16
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • Tagged with
  • 528
  • 163
  • 159
  • 142
  • 109
  • 87
  • 70
  • 58
  • 52
  • 52
  • 52
  • 50
  • 49
  • 48
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Hudi on Hops : Incremental Processing and Fast Data Ingestion for Hops

Gebretsadkan Kidane, Netsanet January 2019 (has links)
In the era of big data, data is flooding from numerous data sources and many companies have been utilizing different types of tools to load and process data from various sources in a data lake. The major challenges where different companies are facing these days are how to update data into an existing dataset without having to read the entire dataset and overwriting it to accommodate the changes which have a negative impact on the performance. Besides this, finding a way to capture and track changed data in a big data lake as the system gets complex with large amounts of data to maintain and query is another challenge. Web platforms such as Hopsworks are also facing these problems without having an efficient mechanism to modify an existing processed results and pull out only changed data which could be useful to meet the processing needs of an organization. The challenge of accommodating row level changes in an efficient and effective manner is solved by integrating Hudi with Hops. This takes advantage of Hudi’s upsert mechanism which uses Bloom indexing to significantly speed up the ability of looking up records across partitions. Hudi indexing maps a record key into the file id without scanning over every record in the dataset. In addition, each successful data ingestion is stored in Apache Hudi format stamped with commit timeline. This commit timeline is needed for the incremental processing mainly to pull updated rows since a specified instant of time and obtain change logs from a dataset. Hence, incremental pulls are realized through the monotonically increasing commit time line. Similarly, incremental updates are realized over a time column (key expression) that allows Hudi to update rows based on this time column. HoodieDeltaStreamer utility and DataSource API are used for the integration of Hudi with Hops and Feature store. As a result, this provided a fabulous way of ingesting and extracting row level updates where its performance can further be enhanced by the configurations of the shuffle parallelism and other spark parameter configurations since Hudi is a spark based library. / I dag är stora data mängder vanligt förekommande bland företag. Typiskt så flödar datan från många datakällor och det är populärt bland företag att använda olika typer av verktyg för att läsa och bearbeta data i en data lake. En av de stora utmaningarna som företag står inför idag är att kunna uppdatera stora mängder data på ett effektivt sätt. Tidigare lösningar för att uppdatera stora mängder data är baserat på att skriva över datan, vilket är en ineffektiv metod. En ytterligare utmaning med stora data mängder är problemet av att bokföra ändringar till datan på ett effektivt sätt. Hopsworks är en webbplattform som lagrar och bearbetrar stora mängder data och står således inför dessa utmaningar. I denna avhandling så presenteras en lösning på problemet med att uppdatera stora datamängder på ett effektivt sätt. Lösningen är baserad på att integrera Hudi med Hops. Genom att integrera Hudi med Hops så kan Hops utnyttja Hudis mekanism för effektiv uppdatering av data. Mekanismen som används i Hudi för att uppdatera stora mängder dataär baserad på Bloom-indexering samt logg-baserad lagring av data. Hudi indexerar datan för att snabba upp uppdateringsoperationer. Dessutom så stödjer Hudi att varje uppdatering bokförs till en loggfil, vilket i praktiken fungerar som en tidslinje över datan. Genom att använda tidslinjen så stödjer Hudi att läsa stora datamängder inkrementellt, samt att inspektera datan vid specifika tidpunkter. I denna avhandling så beskrivs hur HoodieDeltaStreamer-verktyget samt Hudis DataSource API används för integrera Hudi med Hops Feature Store. Tack vare denna integration så möjligörs en mer effektiv och användbar uppdatering av stora datamängder i Hops.
162

Building Evolutionary Clustering Algorithms on Spark

Fu, Xinye January 2017 (has links)
Evolutionary clustering (EC) is a kind of clustering algorithm to handle the noise of time-evolved data. It can track the truth drift of clustering across time by considering history. EC tries to make clustering result fit both current data and historical data/model well, so each EC algorithm defines snapshot cost (SC) and temporal cost (TC) to reflect both requests. EC algorithms minimize both SC and TC by different methods, and they have different ability to deal with a different number of cluster, adding/deleting nodes, etc.Until now, there are more than 10 EC algorithms, but no survey about that. Therefore, a survey of EC is written in the thesis. The survey first introduces the application scenario of EC, the definition of EC, and the history of EC algorithms. Then two categories of EC algorithms model-level algorithms and data-level algorithms are introduced oneby-one. What’s more, each algorithm is compared with each other. Finally, performance prediction of algorithms is given. Algorithms which optimize the whole problem (i.e., optimize change parameter or don’t use change parameter to control), accept a change of cluster number perform best in theory.EC algorithm always processes large datasets and includes many iterative data-intensive computations, so they are suitable for implementing on Spark. Until now, there is no implementation of EC algorithm on Spark. Hence, four EC algorithms are implemented on Spark in the project. In the thesis, three aspects of the implementation are introduced. Firstly, algorithms which can parallelize well and have a wide application are selected to be implemented. Secondly, program design details for each algorithm have been described. Finally, implementations are verified by correctness and efficiency experiments. / Evolutionär clustering (EC) är en slags klustringsalgoritm för att hantera bruset av tidutvecklad data. Det kan spåra sanningshanteringen av klustring över tiden genom att beakta historien. EC försöker göra klustringsresultatet passar både aktuell data och historisk data / modell, så varje EC-algoritm definierar ögonblicks kostnad (SC) och tidsmässig kostnad (TC) för att reflektera båda förfrågningarna. EC-algoritmer minimerar både SC och TC med olika metoder, och de har olika möjligheter att hantera ett annat antal kluster, lägga till / radera noder etc.Hittills finns det mer än 10 EC-algoritmer, men ingen undersökning om det. Därför skrivs en undersökning av EC i avhandlingen. Undersökningen introducerar först applikationsscenariot för EC, definitionen av EC och historien om EC-algoritmer. Därefter introduceras två kategorier av EC-algoritmer algoritmer på algoritmer och algoritmer på datanivå en för en. Dessutom jämförs varje algoritm med varandra. Slutligen ges resultatprediktion av algoritmer. Algoritmer som optimerar hela problemet (det vill säga optimera förändringsparametern eller inte använda ändringsparametern för kontroll), acceptera en förändring av klusternummer som bäst utför i teorin.EC-algoritmen bearbetar alltid stora dataset och innehåller många iterativa datintensiva beräkningar, så de är lämpliga för implementering på Spark. Hittills finns det ingen implementering av EG-algoritmen på Spark. Därför implementeras fyra EC-algoritmer på Spark i projektet. I avhandlingen införs tre aspekter av genomförandet. För det första är algoritmer som kan parallellisera väl och ha en bred tillämpning valda att implementeras. För det andra har programdesigndetaljer för varje algoritm beskrivits. Slutligen verifieras implementeringarna av korrekthet och effektivitetsexperiment.
163

Comparing Text Classification Libraries in Scala and Python : A comparison of precision and recall

Garamvölgyi, Filip, Henning Bruce, August January 2021 (has links)
In today’s internet era, more text than ever is being uploaded online. The text comes in many forms, such as social media posts, business reviews, and many more. For various reasons, there is an interest in analyzing the uploaded text. For instance, an airline business could ask their customers to review the service they have received. The feedback would be collected by asking the customer to leave a review and a score. A common scenario is a review with a good score that contains negative aspects. It is preferable to avoid a situation where the entirety of the review is regarded as positive because of the score if there are negative aspects mentioned. A solution to this would be to analyze each sentence of a review and classify it by negative, neutral or, positive depending on how the sentence is perceived.  With the amount of text uploaded today, it is not feasible to manually analyze text. To automatically classify text by a set of criteria is called text classification. The process of specifically classifying text by how it is perceived is a subcategory of text classification known as sentiment analysis. Positive, neutral and, negative would be the sentiments to classify.  The most popular frameworks associated with the implementation of sentiment analyzers are developed in the programming language Python. However, over the years, text classification has had an increase in popularity. The increase in popularity has caused new frameworks to be developed in new programming languages. Scala is one of the programming languages that has had new frameworks developed to work with sentiment analysis. However, in comparison to Python, it has fewer available resources. Python has more available libraries to work with, available documentation, and community support online. There are even fewer resources regarding sentiment analysis in a less common language such as Swedish. The problem is no one has compared a sentiment analyzer for Swedish text implemented using Scala and compared it to Python. The purpose of this thesis is to compare recall and precision of a sentiment analyzer implemented in Scala to Python. The goal of this thesis is to increase the knowledge regarding the state of text classification for less common natural languages in Scala.  To conduct the study, a qualitative approach with the support of quantitative data was used. Two kinds of sentiment analyzers were implemented in Scala and Python. The first classified text as either positive or negative (binary sentiment analysis), the second sentiment analyzer would also classify text as neutral (multiclass sentiment analysis). To perform the comparative study, the implemented analyzers would perform classification on text with known sentiments. The quality of the classifications was measured using their F1-score.  The results showed that Python had better recall and quality for both tasks. In the binary task, there was not as large of a difference between the two implementations. The resources from Python were more specialized for Swedish and did not seem to be as affected by the small dataset used as the resources in Scala. Scala had an F1-score of 0.78 for binary sentiment analysis and 0.65 for multiclass sentiment analysis. Python had an F1-score of 0.83 for binary sentiment analysis and 0.78 for multiclass sentiment analysis. / I dagens internetera laddas mer text upp än någonsin online. Texten finns i många former, till exempel inlägg på sociala medier, företagsrecensioner och många fler. Av olika skäl finns det ett intresse av att analysera den uppladdade texten. Till exempel kan ett flygbolag be sina kunder att lämna omdömen om tjänsten de nyttjat. Feedbacken samlas in genom att be kunden lämna ett omdöme och ett betyg. Ett vanligt scenario är en recension med ett bra betyg som innehåller negativa aspekter. Det är att föredra att undvika en situation där hela recensionen anses vara positiv på grund av poängen, om det nämnts negativa aspekter. En lösning på detta skulle vara att analysera varje mening i en recension och klassificera den som negativ, neutral eller positiv beroende på hur meningen uppfattas.  Med den mängd text som laddas upp idag är det inte möjligt att manuellt analysera text. Att automatiskt klassificera text efter en uppsättning kriterier kallas textklassificering. Processen att specifikt klassificera text efter hur den uppfattas är en underkategori av textklassificering som kallas sentimentanalys. Positivt, neutralt och negativt skulle vara sentiment att klassificera.  De mest populära ramverken för implementering av sentimentanalysatorer utvecklas i programmeringsspråket Python. Men genom åren har textklassificering ökat i popularitet. Ökningen i popularitet har gjort att nya ramverk utvecklats för nya programmeringsspråk. Scala är ett av programmeringsspråken som har utvecklat nya ramverk för att arbeta med sentimentanalys. I jämförelse med Python har den dock mindre tillgängliga resurser. Python har mer bibliotek, dokumentation och mer stöd online. Det finns ännu färre resurser när det gäller sentimentanalyser på ett mindre vanligt språk som svenska. Problemet är att ingen har jämfört en sentimentanalysator för svensk text implementerad med Scala och jämfört den med Python. Syftet med denna avhandling är att jämföra precision och recall på en sentimentanalysator implementerad i Scala med Python. Målet med denna avhandling är att öka kunskapen om tillståndet för textklassificering för mindre vanliga naturliga språk i Scala.  För att genomföra studien användes ett kvalitativt tillvägagångssätt med stöd av kvantitativa data. Två typer av sentimentanalysatorer implementerades i Scala och Python. Den första klassificerade texten som antingen positiv eller negativ (binär sentimentanalys), den andra sentimentanalysatorn skulle också klassificera text som neutral (sentimentanalys i flera klasser). För att utföra den jämförande studien skulle de implementerade analysatorerna utföra klassificering på text med kända sentiment. Klassificeringarnas kvalitet mättes med deras F1-poäng.  Resultaten visade att Python hade bättre precision och recall för båda uppgifterna. I den binära uppgiften var det inte lika stor skillnad mellan de två implementeringarna. Resurserna från Python var mer specialiserade för svenska och verkade inte påverkas lika mycket av den lilla dataset som används som resurserna i Scala. Scala hade ett F1-poäng på 0,78 för binär sentimentanalys och 0,65 för sentimentanalys i flera klasser. Python hade ett F1-poäng på 0,83 för binär sentimentanalys och 0,78 för sentimentanalys i flera klasser.
164

Методология запуска Apache Spark в различных менеджерах контейнеров (Hadoop, Kubernetes) : магистерская диссертация / Methodology for running Apache Spark in various container managers (Hadoop, Kubernetes)

Краубаев, А. С., Kraubaev, A. S. January 2023 (has links)
Цель работы – разработка методики для студентов, разработчиков и инженер по работе с данными, которые заинтересованы расширить свой кругозор, по запуску Apache Spark в кластерной среде «Hadoop» и «Kubernetes». Объектом исследования – данной работы являются практика применения методологии запуска Apache Spark в кластерной среде Kubernetes, Hadoop. Результаты работы: практика применения контейнеризации и кластерной среды Kubernetes, чтобы ознакомить с методологией запуска «Apache Spark». Выпускная квалификационная работа выполнена в текстовом редакторе. Microsoft Word и предоставлена в твердой копии. / The goal of the work is to develop a methodology for students, developers and data engineers who are interested in expanding their horizons on running Apache Spark in the Hadoop and Kubernetes cluster environment. The object of research - this work is the practice of applying the methodology for launching Apache Spark in the Kubernetes and Hadoop cluster environment. Results of the work: practice of using containerization and the Kubernetes cluster environment to familiarize yourself with the methodology for launching Apache Spark. The final qualifying work was completed in a text editor. Microsoft Word and provided in hard copy.
165

Resource-efficient and fast Point-in-Time joins for Apache Spark : Optimization of time travel operations for the creation of machine learning training datasets / Resurseffektiva och snabba Point-in-Time joins i Apache Spark : Optimering av tidsresningsoperationer för skapande av träningsdata för maskininlärningsmodeller

Pettersson, Axel January 2022 (has links)
A scenario in which modern machine learning models are trained is to make use of past data to be able to make predictions about the future. When working with multiple structured and time-labeled datasets, it has become a more common practice to make use of a join operator called the Point-in-Time join, or PIT join, to construct these datasets. The PIT join matches entries from the left dataset with entries of the right dataset where the matched entry is the row whose recorded event time is the closest to the left row’s timestamp, out of all the right entries whose event time occurred before or at the same time of the left event time. This feature has long only been a part of time series data processing tools but has recently received a new wave of attention due to the rise of the popularity of feature stores. To be able to perform such an operation when dealing with a large amount of data, data engineers commonly turn to large-scale data processing tools, such as Apache Spark. However, Spark does not have a native implementation when performing these joins and there has not been a clear consensus by the community on how this should be achieved. This, along with previous implementations of the PIT join, raises the question: ”How to perform fast and resource efficient Pointin- Time joins in Apache Spark?”. To answer this question, three different algorithms have been developed and compared for performing a PIT join in Spark in terms of resource consumption and execution time. These algorithms were benchmarked using generated datasets using varying physical partitions and sorting structures. Furthermore, the scalability of the algorithms was tested by running the algorithms on Apache Spark clusters of varying sizes. The results received from the benchmarks showed that the best measurements were achieved by performing the join using Early Stop Sort-Merge Join, a modified version of the regular Sort-Merge Join native to Spark. The best performing datasets were the datasets that were sorted by timestamp and primary key, ascending or descending, using a suitable number of physical partitions. Using this new information gathered by this project, data engineers have been provided with general guidelines to optimize their data processing pipelines to be able to perform more resource-efficient and faster PIT joins. / Ett vanligt scenario för maskininlärning är att träna modeller på tidigare observerad data för att för att ge förutsägelser om framtiden. När man jobbar med ett flertal strukturerade och tidsmärkta dataset har det blivit vanligare att använda sig av en join-operator som kallas Point-in-Time join, eller PIT join, för att konstruera dessa datauppsättningar. En PIT join matchar rader från det vänstra datasetet med rader i det högra datasetet där den matchade raden är den raden vars registrerade händelsetid är närmaste den vänstra raden händelsetid, av alla rader i det högra datasetet vars händelsetid inträffade före eller samtidigt som den vänstra händelsetiden. Denna funktionalitet har länge bara varit en del av datahanteringsverktyg för tidsbaserad data, men har nyligen fått en ökat popularitet på grund av det ökande intresset för feature stores. För att kunna utföra en sådan operation vid hantering av stora mängder data vänder sig data engineers vanligvis till storskaliga databehandlingsverktyg, såsom Apache Spark. Spark har dock ingen inbyggd implementation för denna join-operation, och det finns inte ett tydligt konsensus från Spark-rörelsen om hur det ska uppnås. Detta, tillsammans med de tidigare implementationerna av PIT joins, väcker frågan: ”Vad är det mest effektiva sättet att utföra en PIT join i Apache Spark?”. För att svara på denna fråga har tre olika algoritmer utvecklats och jämförts med hänsyn till resursförbrukning och exekveringstid. För att jämföra algoritmerna, exekverades de på genererade datauppsättningar med olika fysiska partitioner och sorteringstrukturer. Dessutom testades skalbarheten av algoritmerna genom att köra de på Spark-kluster av varierande storlek. Resultaten visade att de bästa mätvärdena uppnåddes genom att utföra operationen med algoritmen early stop sort-merge join, en modifierad version av den vanliga sort-merge join som är inbyggd i Spark, med en datauppsättning som är sorterad på tidsstämpel och primärnyckel, antingen stigande eller fallande. Fysisk partitionering av data kunde även ge bättre resultat, men det optimala antal fysiska partitioner kan variera beroende på datan i sig. Med hjälp av denna nya information som samlats in av detta projekt har data engineers försetts med allmänna riktlinjer för att optimera sina databehandlings-pipelines för att kunna utföra mer resurseffektiva och snabbare PIT joins
166

Development Of A Single Cylinder SI Engine For 100% Biogas Operation

Kapadia, Bhavin Kanaiyalal 03 1900 (has links)
This work concerns a systematic study of IC engine operation with 100% biogas as fuel (as opposed to the dual-fuel mode) with particular emphasis on operational issues and the quest for high efficiency strategies. As a first step, a commercially available 1.2 kW genset engine is modified for biogas operation. The conventional premixing of air and biogas is compared with a new manifold injection strategy. The effect of biogas composition on engine performance is also studied. Results from the genset engine study indicate a very low overall efficiency of the system. This is mainly due to the very low compression ratio (4.5) of the engine. To gain further insight into factors that contribute to this low efficiency, thermodynamic engine simulations are conducted. Reasonable agreement with experiments is obtained after incorporating estimated combustion durations. Subsequently, the model is used as a tool to predict effect of different parameters such as compression ratio, spark timing and combustion durations on engine performance and efficiency. Simulations show that significant improvement in performance can be obtained at high compression ratios. As a step towards developing a more efficient system and based on insight obtained from simulations, a high compression ratio (9.2) engine is selected. This engine is coupled to a 3 kW alternator and operated on 100% biogas. Both strategies, i.e., premixing and manifold injection are implemented. The results show very high overall (chemical to electrical) efficiencies with a maximum value of 22% at 1.4 kW with the manifold injection strategy. The new manifold injection strategy proposed here is found to be clearly superior to the conventional premixing method. The main reasons are the higher volumetric efficiency (25% higher than that for the premixing mode of supply) and overall lean operation of the engine across the entire load range. Predictions show excellent agreement with measurements, enabling the model to be used as a tool for further study. Simulations suggest that a higher compression ratio (up to 13) and appropriate spark advance can lead to higher engine power output and efficiency.
167

Knock Model Evaluation – Gas Engine

Sharma, Nishchay January 2018 (has links)
Knocking is a type of abnormal combustion which depends on several physical factors and results in high frequency pressure oscillations inside the combustion chamber of a spark-ignited internal combustion engine (ICE). These oscillations can damage the engine and hamper its efficiency, which is why it is important for automakers to understand the knocking behavior so that it can be avoided during engine operation. Due to the catastrophic outcomes of knocking a lot of research has been done in the past on prediction of its occurrence. There can be several causes of knocking but when it occurs due to auto-ignition of fuel in the end-gas it’s called spark-knock. There are various mathematical models that predict the phenomenon of spark-knock. In this thesis, several of the previously published knock prediction models for heavy-duty natural-gas engine are studied and analyzed. The main objective of this project is to assess the accuracy of different types of knock prediction models.Amongst all the types of knock prediction models emphasize has been given to empirical correlation models, particularly to the ones which are based on chemical kinetics pertaining to the combustion process of methane. These are the models that claim to predict ignition delay time based on concentration of air and fuel in the unburned zone of the cylinder. The models are assessed based on the knocking behavior they represent across the engine operation range. Results pertaining to the knock prediction models are evaluated in a 1D engine simulation model using AVL BOOST. The BOOST performance prediction model is calibrated against experimentally measured engine test-cell data and the same data is used to assess the knock prediction models.The knock prediction model whose results correlate with experimental observations is analyzed further while other models are discarded. Using the validated model, variation in knock occurrence is evaluated with change in the combustion phasing. Two of the parameter that are used to define the combustion phasing are spark-advance and combustion duration. It was found that when the brake mean effective pressure is kept constant the knock prediction parameter increases linearly with increase in spark advance and decreases linearly with increase in combustion duration. The variation of knock prediction parameter with spark advance showed increasing gradient with increase in engine torque. / Knack i en förbränningsmotor är en typ av onormal förbränning. Det är ett komplicerat fenomen som beror på flera fysiska faktorer och resulterar i högfrekventa tryckoscillationer inuti förbränningskammaren. Dessa oscillationer kan skada motorn och fenomenet hämmar motorns effektivitet. Knack kan uppstå på två sätt i en Otto-motor och detta examensarbete kommer att handla om självantändning. Självantändning, i detta fall, är när ändgasen börjar brinna utan att ha blivit påverkad av flamfronten eller gnistan från tändstiftet. Det finns flera olika matematiska modeller som i olika grader kan prediktera knackfenomenet. I detta examensarbete studeras några av de tidigare publicerade prediktionsmodellerna för knack i Otto-förbränning och modelleras för analys. Huvudsyftet med detta projekt är således att bedöma noggrannheten hos olika typer av knackmodeller. Extra fokus har lagts på empiriska korrelationsmodeller, särskilt till de som är baserade på kemisk kinetik avseende förbränningsprocessen av metan. Dessa modeller förutsäger den tid det tar för ändgasen att självantända, baserat på dess koncentration av luft och bränsle. Knackmodellerna bedöms sedan utifrån det beteende som de förutsäger över motorns driftområde och dess överensstämmelse med kända motorkalibreringsstrategier. Resultatet av knackpredikteringen för de olika knackmodellerna utvärderas och valideras i en motorsimuleringsmodell i mjukvaran AVL BOOST. BOOST-modellen kalibreras mot experimentellt uppmätta motortestdata. Baserat på resultaten från de valda knockmodellerna så blev den modell som bäst korrelerar med kända motorkalibreringsstrategier analyserad djupare. Den utvalda modellen var en ECM modell och den utvärderas ytterligare med avseende på variation i predikterad knack-parameter. Detta görs genom att modifiera två förbränningsparametrar: tändvinkel och förbränningsduration. Det visade sig att modellerna predikterade en linjär ökning då tändningen tidigareläggs och ett linjärt minskande vid längre förbränningsduration, vilket är i enlighet med motortestdata. Vidare visade det sig att variationer i tändvinkel resulterade i en högre gradient i knackpredikteringen vid högre motorbelastningar och korresponderande minskning vid lägre belastning.
168

Knock model evaluation - Gas engine

Sharma, Nishchay January 2018 (has links)
Knack i en förbränningsmotor är en typ av onormal förbränning. Det är ett komplicerat fenomen som beror på flera fysiska faktorer och resulterar i högfrekventa tryckoscillationer inuti förbränningskammaren. Dessa oscillationer kan skada motorn och fenomenet hämmar motorns effektivitet. Knack kan uppstå på två sätt i en Otto-motor och detta examensarbete kommer att handla om självantändning. Självantändning, i detta fall, är när ändgasen börjar brinna utan att ha blivit påverkad av flamfronten eller gnistan från tändstiftet. Det finns flera olika matematiska modeller som i olika grader kan prediktera knackfenomenet. I detta examensarbete studeras några av de tidigare publicerade prediktionsmodellerna för knack i Otto-förbränning och modelleras för analys. Huvudsyftet med detta projekt är således att bedöma noggrannheten hos olika typer av knackmodeller. Extra fokus har lagts på empiriska korrelationsmodeller, särskilt till de som är baserade på kemisk kinetik avseende förbränningsprocessen av metan. Dessa modeller förutsäger den tid det tar för ändgasen att självantända, baserat på dess koncentration av luft och bränsle. Knackmodellerna bedöms sedan utifrån det beteende som de förutsäger över motorns driftområde och dess överensstämmelse med kända motorkalibreringsstrategier. Resultatet av knackpredikteringen för de olika knackmodellerna utvärderas och valideras i en motorsimuleringsmodell i mjukvaran AVL BOOST. BOOST-modellen kalibreras mot experimentellt uppmätta motortestdata. Baserat på resultaten från de valda knockmodellerna så blev den modell som bäst korrelerar med kända motorkalibreringsstrategier analyserad djupare. Den utvalda modellen var en ECM modell och den utvärderas ytterligare med avseende på variation i predikterad knack-parameter. Detta görs genom att modifiera två förbränningsparametrar: tändvinkel och förbränningsduration. Det visade sig att modellerna predikterade en linjär ökning då tändningen tidigareläggs och ett linjärt minskande vid längre förbränningsduration, vilket är i enlighet med motortestdata. Vidare visade det sig att variationer i tändvinkel resulterade i en högre gradient i knackpredikteringen vid högre motorbelastningar och korresponderande minskning vid lägre belastning. / Knocking is a type of abnormal combustion which depends on several physical factors and results in high frequency pressure oscillations inside the combustion chamber of a spark-ignited internal combustion engine (ICE). These oscillations can damage the engine and hamper its efficiency, which is why it is important for automakers to understand the knocking behavior so that it can be avoided during engine operation. Due to the catastrophic outcomes of knocking a lot of research has been done in the past on prediction of its occurrence. There can be several causes of knocking but when it occurs due to auto-ignition of fuel in the end-gas it’s called spark-knock. There are various mathematical models that predict the phenomenon of spark-knock. In this thesis, several of the previously published knock prediction models for heavy-duty natural-gas engine are studied and analyzed. The main objective of this project is to assess the accuracy of different types of knock prediction models. Amongst all the types of knock prediction models emphasize has been given to empirical correlation models, particularly to the ones which are based on chemical kinetics pertaining to the combustion process of methane. These are the models that claim to predict ignition delay time based on concentration of air and fuel in the unburned zone of the cylinder. The models are assessed based on the knocking behavior they represent across the engine operation range. Results pertaining to the knock prediction models are evaluated in a 1D engine simulation model using AVL BOOST. The BOOST performance prediction model is calibrated against experimentally measured engine test-cell data and the same data is used to assess the knock prediction models. The knock prediction model whose results correlate with experimental observations is analyzed further while other models are discarded. Using the validated model, variation in knock occurrence is evaluated with change in the combustion phasing. Two of the parameter that are used to define the combustion phasing are spark-advance and combustion duration. It was found that when the brake mean effective pressure is kept constant the knock prediction parameter increases linearly with increase in spark advance and decreases linearly with increase in combustion duration. The variation of knock prediction parameter with spark advance showed increasing gradient with increase in engine torque.
169

Étude de matériaux composites à base de nanosiliciures de métaux de transition pour la thermoélectricité / Study of composite materials based on transition metal nanoilicides for thermoelectricity

Favier, Katia 07 November 2013 (has links)
L'alliage Si-Ge est utilisé depuis de nombreuses années dans les modules thermoélectriques dans les sondes spatiales de la NASA. Ils convertissent la chaleur résultant de la désintégration radioactive de matériaux riches en un ou plusieurs radio-isotopes en électricité. Cet alliage est performant à haute température (à partir de 700 °C), c'est pourquoi il trouve également un fort intérêt dans l'industrie automobile. De nombreuses recherches dans ce secteur s'orientent vers la thermoélectricité, notamment vers des modules fonctionnant à haute température pour permettre la réduction de consommation de carburant.La meilleure composition de l'alliage en thermoélectricité est Si0,8Ge0,2. Le facteur de mérite réduit (ZT) de ces matériaux est généralement proche de 0,75 et de 0,45 à 700 °C pour les types n et p respectivement. Le germanium étant très onéreux, la composition retenue dans cette étude est Si0,92Ge0,08. Pour améliorer les performances de la composition choisie et se rapprocher de celles de la meilleure composition, la voie retenue est l'incorporation de nanoinclusions à base de siliciures de molybdène dans le matériau, permettant la diminution de la conductivité thermique.L'alliage Si-Ge est synthétisé par mécanosynthèse, et densifié par SPS. Les dopants utilisés sont le phosphore et le bore pour les types n et p respectivement. Le taux de dopage optimal est de 0,7 %. Ainsi, les ZT obtenus à 700 °C sont égaux à 0,7 et 0,5 pour les types n et p respectivement. La nature des inclusions stables dans la matrice est déterminée par la méthode CalPhad qui permet l'obtention du diagramme ternaire Mo-Si-Ge. La phase MoSi2 apparait alors comme étant la seule phase stable dans la matrice Si0,92Ge0,08. La fraction volumique optimale de molybdène est de 1,3 % lorsque les matériaux sont densifiés à 1280 °C. Le ZT obtenu est supérieur à 1 à 700 °C pour le type n, et proche de 0,8 pour le type p. L'ajout de nanoinclusions a permis d'augmenter les performances de 43 % et de 60 % à 700 °C. / Si-Ge alloys has been used for many years in the thermoelectric modules in the NASA space probes in which they convert heat produced by the radioactive decay of a heat source into electricity. This alloy is effective at high temperature (from 700 °C), so it is also a strong interest in the automotive industry. The strong incentive in this area to reduce fuel consumption leads researchers to develop thermoelectric modules that can operate at high temperatures. The composition at which SiGe alloys are the most thermoelectrically efficient is Si0.8Ge0.2. Their figure of merit (ZT) is generally close to 0.75 and 0.45 at 700 °C for type n and p respectively. As Germanium is very expensive, this study aims to develop a Si0.92Ge0.08 alloy that can compare to the existing Si0.8Ge0.2 alloys. To get to a higher level of performance, the thermal conductivity of the chosen composition has to be decreased, which is done by incorporating molybdenum silicides in the Si0.92Ge0.08 alloys.The Si-Ge alloy was synthesized by mechanical alloying, and sintered by SPS. The dopants used are phosphorous and boron for the n and p types respectively. The optimal doping level is 0.7%. ZT obtained for Si0.92Ge0.08 base alloys at 700 °C are equal to 0.7 and 0.5 for n and p types respectively. The nature of stable inclusions in the matrix has been determined by the CALPHAD method to obtain the ternary diagram Mo-Si-Ge. Then, the MoSi2 phase appears to be the only stable phase in the matrix Si0.92Ge0.08. The optimum volume fraction of molybdenum was 1.3% when the materials are sintered at 1280 °C. Therefore, the ZT obtained is higher than 1 at 700 °C for n-type and close to 0.8 for p-type. Adding nanoinclusions has increased performance by 43% (n-type) and 60% (p-type) at 700 °C.
170

Cristallochimie prospective : relaxeurs, ferroïques et SPS basse température / Prospective crystal-chemistry : relaxors, ferroics and low temperature SPS

Herisson de beauvoir, Thomas 26 September 2017 (has links)
Les travaux présents ici portent sur l’étude et la prospection de matériaux ferroiques. Cette étude consiste en une approche revêtant plusieurs aspects que sont la chimie du solide, la physique du solide et la science des matériaux. Deux parties sont développées, avec deux approches différentes. La première se concentre sur les liens entre composition/structure/propriétés dans des matériaux de la famille des TTB dérives de Ba2NdFeNb4O15 à travers l’étude de solutions solides à base de Li et l’étude de l’impact des différents paramètres de synthèse sur la nature de l’anomalie diélectrique mesurées sur pastilles densifiées. La mise en évidence de modulation structurale dans cette famille de matériaux semble être en lien direct avec l’observation des variations de propriétés diélectriques. L’utilisation de diffraction électronique notamment permet la mise en évidence de ces modulations structurales et leur évolution en température. Dans une seconde partie, l’approche consiste à utiliser le Spark Plasma Sintering (SPS) comme technique de densification pour des matériaux dits “fragiles” mais aussi d’explorer des propriétés diélectriques jusqu’alors inaccessibles, sur matériaux massifs. Le développement de la technique SPS à basse température permet ainsi non seulement de densifier à basse température des matériaux fragiles, mais aussi d’obtenir des phases inaccessibles dans des conditions de températures similaires par traitement thermique conventionnel. De même, l’obtention de céramique moléculaire de très haute densité a pu être réalisée, malgré des températures de décomposition extrêmement faible (100 ˚C). / The present work focuses on the prospection and understanding study of ferroic materials. It consists in a multiple aspect approach, including materials chemistry, materials physics and materials processing. Two parts compose this work, with two different approaches. The first one focuses on the links between composition, structure and properties in materials belonging to the TTB family, more specifically derived from Ba2NdFeNb4O15, through the exploration of Li containing solid solutions, and the impact of synthesis parameters on measured dielectric anomalies on dense samples. The observation of structural modulation in these materials seems to be closely related to the observation of dielectric anomalies variations. Using electron diffraction techniques allowed the evidence of such anomalies and the following of their thermal evolution. In a second part, the approach consists in using Spark Plasma Sintering (SPS) as a densification technique for so called “fragile” materials but also explore dielectric properties impossible to experimentally measure thus far. Developing low temperature SPS technique not only allows to densify ceramics at low temperatures fragile materials, but also to obtain inaccessible phases in similar temperature conditions using conventional thermal treatments. Moreover, sintering of molecular ceramic at very high density was possible, even if its decomposition temperature is extremely low (100 ˚C).

Page generated in 0.0565 seconds