1 |
Parametrização de Sistemas de Equações Diferenciais Ordinárias no crescimento de bovinos de corte e produção de gases / Parameterization of Ordinary Differential Equations Systems in the growth of beef cattle and production of gasesBiase, Adriele Giaretta 05 February 2016 (has links)
Parametrizações de modelos e estruturas de correlações dos parâmetros no âmbito agropecuário são importantes por caracterizarem o comportamento de um sistema em resposta a variações de múltiplos cenários (clima, genótipos, dietas nutricionais, dentre outros fatores) que existem em escalas globais. O objetivo foi contribuir com inferências estatísticas na produção de gases CO2 [um potente Gás de Efeito Estufa (GEE)] nas fermentações in vitro de feno de alfafa, comparando métodos frequentistas com novas metodologias surgidas na literatura científica como a combinação dos métodos de Rejeição por Atraso e o Metropólis Adaptativo (RAMA), até então não testados para predições de gases de fermentação in vitro. Além disso, modelos de séries temporais foram usados para previsão da produção de CO2 nas fermentações de gases in vitro de feno de alfafa. Dentro do contexto de crescimento de gado de corte, foi realizada pela primeira vez uma abordagem para predições individuais dos animais para taxa de ganho de peso e a necessidade de energia para mantença baseada na dinâmica de crescimento e composição química corporal do Modelo de Crescimento de Davis (MCD), com comparação de análise de covariância multivariada entre diferentes cenários (gêneros, sistemas e genótipo cruzados), em um experimento a campo no Brasil. Adicionalmente calibrações dos parâmetros baseadas na amostra de cada cenário, pelos ajustes do MCD e usando análise frequentista, bootstrap não-paramétrico e simulações Monte Carlo foram realizadas com os dados nacionais (raça cruzada) e comparada com as estimativas originais do modelo obtido com raças Britânicas (Bos taurus). Os principais critérios adotados para avaliar os ajustes dos modelos foram o Erro Quadrático Médio de Predição (EQMP), o Critério de Informação Akaike (AIC) e o Critério de Informação Bayesiano (BIC). Os resultados não só contribuirão para o avanço da literatura existente, mas também auxiliarão a indústria de carne bovina e produtores rurais a encontrar especificações do mercado de carne, tanto a nível nacional e internacional. Concluiu-se que i) na produção de gases: o modelo ARIMA (1, 1, 2) ajustou a produção acumulativa de CO2, atingindo o valor máximo de 1,1066 (mL) no tempo de 47,5 h e a equação é indicada para estimar a produção de gases; ii) no crescimento de gados de corte usando as estimativas individuais do MCD, os vetores de efeitos de energia de mantença e o acréscimo de proteína possuem efeitos pronunciados quanto as interações entre sistemas e gêneros; iii) no crescimento de gados de corte usando as estimativas da amostra total com MCD, os genótipos cruzados tiveram maior gasto de energia de mantença e foram mais rápidos de maturação em comparação tanto com os animais de genótipos Britânicos (Bos taurus) e touros Nelores. A técnica de bootstrap não-paramétrica estimou com sucesso as distribuições dos parâmetros (que tiveram distribuição probabilidade normal para maioria dos cenários). Correlação negativa entre os parâmetros de acréscimo de DNA e energia de mantença foram encontrados para animais machos não castrados do sistema extensivo, indicando que foram mais eficientes no uso da energia. A generalização de tal relação ainda demanda estudos mais abrangentes e aprofundados. / Model parameter fitting and parameter correlation structures are important for characterize a system\'s behaviour in response to multiple scenarios variations (climate, genotypes, nutritional diet and other factors). The aim was to contribute to statistical inferences in the production of CO2 [a potent greenhouse gas (GHG)] in vitro fermentation of alfalfa hay, comparing frequentist methods with new methodologies that emerged in the scientific literature, such as the combination of a delay Rejection and the Adaptive Metropolis methods (RAMA), not yet tested for in vitro fermentation gases predictions. In addition, time series models were used to predict CO2 production in the in vitro fermentation of alfalfa hay. For the first time, individual predictions of animal weight gain rate and energy of maintenance based on the growth dynamics and body composition Davis Growth Model (DGM) was carried out besides multivariate covariance analysis of different scenarios (genres, systems and crossed genotype). Additionally, parameter estimation based on sample of each scenario, using frequentist analysis, nonparametric bootstrap and Monte Carlo simulations were performed with national data (cross breed) and compared to the original estimates of the model obtained with British breeds (Bos taurus). The main criteria used to evaluate the model accuracy were the Mean Square Error of Prediction (MSEP), the Akaike Information Criterion (AIC) and the Bayesian Information Criterion (BIC). The results not only contribute to the scientific progress in modeling animal growth and composition, but also assist the beef industry and farmers to adjust the production process to the meat market specifications, both nationally and internationally. For in vitro gas production, we concluded that the ARIMA (1, 1, 2) model presented the highest accuracy in predicting cumulative CO2 production and the respective equation is recommended for estimating CO2 production. In the growth beef cattle using the individual estimates DGM, average vectors from maintenance of energy and protein accretion showed pronounced effects as the interactions between systems and genres. Also the total sample with DGM, cross-breed genotypes had higher maintenance energy expenditure and were faster-maturing compared with British genotypes animals(Bos taurus) and Nellore bulls estimates. Bootstrap nonparametric with downhill simplex optimization method successfully estimated the distributions of the parameters (that had normal probability distribution for most scenarios). Uncastrated male animals of the extensive system showed negative correlation between the protein deposition rate and requirement for energy maintenance, indicating that animals with faster lean tissue deposition were also more efficient in energy usage. We warn that the generalization of this finding demands studies with larger populations.
|
2 |
Parametrização de Sistemas de Equações Diferenciais Ordinárias no crescimento de bovinos de corte e produção de gases / Parameterization of Ordinary Differential Equations Systems in the growth of beef cattle and production of gasesAdriele Giaretta Biase 05 February 2016 (has links)
Parametrizações de modelos e estruturas de correlações dos parâmetros no âmbito agropecuário são importantes por caracterizarem o comportamento de um sistema em resposta a variações de múltiplos cenários (clima, genótipos, dietas nutricionais, dentre outros fatores) que existem em escalas globais. O objetivo foi contribuir com inferências estatísticas na produção de gases CO2 [um potente Gás de Efeito Estufa (GEE)] nas fermentações in vitro de feno de alfafa, comparando métodos frequentistas com novas metodologias surgidas na literatura científica como a combinação dos métodos de Rejeição por Atraso e o Metropólis Adaptativo (RAMA), até então não testados para predições de gases de fermentação in vitro. Além disso, modelos de séries temporais foram usados para previsão da produção de CO2 nas fermentações de gases in vitro de feno de alfafa. Dentro do contexto de crescimento de gado de corte, foi realizada pela primeira vez uma abordagem para predições individuais dos animais para taxa de ganho de peso e a necessidade de energia para mantença baseada na dinâmica de crescimento e composição química corporal do Modelo de Crescimento de Davis (MCD), com comparação de análise de covariância multivariada entre diferentes cenários (gêneros, sistemas e genótipo cruzados), em um experimento a campo no Brasil. Adicionalmente calibrações dos parâmetros baseadas na amostra de cada cenário, pelos ajustes do MCD e usando análise frequentista, bootstrap não-paramétrico e simulações Monte Carlo foram realizadas com os dados nacionais (raça cruzada) e comparada com as estimativas originais do modelo obtido com raças Britânicas (Bos taurus). Os principais critérios adotados para avaliar os ajustes dos modelos foram o Erro Quadrático Médio de Predição (EQMP), o Critério de Informação Akaike (AIC) e o Critério de Informação Bayesiano (BIC). Os resultados não só contribuirão para o avanço da literatura existente, mas também auxiliarão a indústria de carne bovina e produtores rurais a encontrar especificações do mercado de carne, tanto a nível nacional e internacional. Concluiu-se que i) na produção de gases: o modelo ARIMA (1, 1, 2) ajustou a produção acumulativa de CO2, atingindo o valor máximo de 1,1066 (mL) no tempo de 47,5 h e a equação é indicada para estimar a produção de gases; ii) no crescimento de gados de corte usando as estimativas individuais do MCD, os vetores de efeitos de energia de mantença e o acréscimo de proteína possuem efeitos pronunciados quanto as interações entre sistemas e gêneros; iii) no crescimento de gados de corte usando as estimativas da amostra total com MCD, os genótipos cruzados tiveram maior gasto de energia de mantença e foram mais rápidos de maturação em comparação tanto com os animais de genótipos Britânicos (Bos taurus) e touros Nelores. A técnica de bootstrap não-paramétrica estimou com sucesso as distribuições dos parâmetros (que tiveram distribuição probabilidade normal para maioria dos cenários). Correlação negativa entre os parâmetros de acréscimo de DNA e energia de mantença foram encontrados para animais machos não castrados do sistema extensivo, indicando que foram mais eficientes no uso da energia. A generalização de tal relação ainda demanda estudos mais abrangentes e aprofundados. / Model parameter fitting and parameter correlation structures are important for characterize a system\'s behaviour in response to multiple scenarios variations (climate, genotypes, nutritional diet and other factors). The aim was to contribute to statistical inferences in the production of CO2 [a potent greenhouse gas (GHG)] in vitro fermentation of alfalfa hay, comparing frequentist methods with new methodologies that emerged in the scientific literature, such as the combination of a delay Rejection and the Adaptive Metropolis methods (RAMA), not yet tested for in vitro fermentation gases predictions. In addition, time series models were used to predict CO2 production in the in vitro fermentation of alfalfa hay. For the first time, individual predictions of animal weight gain rate and energy of maintenance based on the growth dynamics and body composition Davis Growth Model (DGM) was carried out besides multivariate covariance analysis of different scenarios (genres, systems and crossed genotype). Additionally, parameter estimation based on sample of each scenario, using frequentist analysis, nonparametric bootstrap and Monte Carlo simulations were performed with national data (cross breed) and compared to the original estimates of the model obtained with British breeds (Bos taurus). The main criteria used to evaluate the model accuracy were the Mean Square Error of Prediction (MSEP), the Akaike Information Criterion (AIC) and the Bayesian Information Criterion (BIC). The results not only contribute to the scientific progress in modeling animal growth and composition, but also assist the beef industry and farmers to adjust the production process to the meat market specifications, both nationally and internationally. For in vitro gas production, we concluded that the ARIMA (1, 1, 2) model presented the highest accuracy in predicting cumulative CO2 production and the respective equation is recommended for estimating CO2 production. In the growth beef cattle using the individual estimates DGM, average vectors from maintenance of energy and protein accretion showed pronounced effects as the interactions between systems and genres. Also the total sample with DGM, cross-breed genotypes had higher maintenance energy expenditure and were faster-maturing compared with British genotypes animals(Bos taurus) and Nellore bulls estimates. Bootstrap nonparametric with downhill simplex optimization method successfully estimated the distributions of the parameters (that had normal probability distribution for most scenarios). Uncastrated male animals of the extensive system showed negative correlation between the protein deposition rate and requirement for energy maintenance, indicating that animals with faster lean tissue deposition were also more efficient in energy usage. We warn that the generalization of this finding demands studies with larger populations.
|
3 |
Enhancement of a Power Line Information System by Combining BIM and LiDAR Data / Förbättring av ett informationssystem för kraftledningar genom att kombinera BIM- och LiDAR-dataWollberg, Daniel January 2024 (has links)
With the great ongoing energy transition in Sweden, Svenska Kraftnät (SVK) sees a huge need for investment in the Swedish transmission network and supporting IT- systems. SVK has a great amount of collected laser data over the electric power transmission network however this data does not contain any semantic attribution that can be analyzed on broader information systems. The overall focus of this thesis is to investigate ways to enhance an information system. This thesis focuses particularly on the ability to combine information from pylon-3D-BIM models with point clouds of pylons gathered via an airborne laser scanner. Point cloud data from a 200-kilometer-long power line corridor between Djurmo and Lindbacka, including pylons, was provided by SVK. Two different methods to compile different data types to a single information system are investigated in this thesis. The first method is established by matching different types of pylon 3D-models to the respective reference point clouds using the Iterative Closest Point algorithm (ICP). The pylon models used for this method were S1J, B1J and SV2J pylons.The second method is based on segmentation of meaningful pylon parts from the point cloud data using predefined information about the shape of the pylons. The pylon models used for this method were S1J and B1J pylons. The goal was to automate the process and extract information as well as perform computations dynamically. This has been done using Feature Manipulation Engine (FME). The results are evaluated by comparing the two methods based on performance, reliability, and purpose. 93 % of the ICP comparisons showed that the best match between a point cloud model and a 3D-model was achieved when comparing models of the same pylon type. The highest accuracy was achieved when comparing an S1J pylon point cloud to an S1J pylon 3D-model.The segmentation method was used to successfully segment the beam, insulators and legs from the pylon point cloud data. A small sample size of pylon point clouds as well as a low number of different pylon 3D-models were used but both methods can be seen as a proof of concept that could be further evaluated in the future. In conclusion both methods used in this project were used successfully in order to enhance a power line information system. / Med den stora pågående energiomställningen i Sverige ser Svenska Kraftnät (SVK) ett stort behov av investeringar i det svenska transmissionsnätet och stödjande IT-system. SVK har en stor mängd insamlade laserdata över transmissionsnätet, men dessa data innehåller inte någon semantisk tilldelning som kan analyseras i bredare informationssystem. Det övergripande fokuset i detta arbete är att undersöka sätt att förbättra ett informationssystem. Detta examensarbete fokuserar särskilt på möjligheten att kombinera information från stolp-3D-BIM-modeller med punktmoln av stolpar insamlade via en flygburen laserskanner. Punktmolnsdata från en 200 kilometer lång kraftledningskorridor mellan Djurmo och Lindbacka, inklusive ledningsstolpar, tillhandahölls av SVK. Två olika metoder för att sammanställa olika datatyper till ett enda informationssystem undersöks i detta arbete. Den första metoden etableras genom att matcha olika typer av 3D-modeller av stolpar med respektive referens-punktmoln med hjälp av algoritmen Iterative Closest Point (ICP). De stolpmodeller som användes för denna metod var S1J-, B1J- och SV2J-stolpar.Den andra metoden baseras på segmentering av meningsfulla stolpdelar från punktmolnsdata med hjälp av fördefinierad information om stolparnas utformning. Stolpmodellerna som användes för denna metod var S1J- och B1J-stolpar. Målet var att automatisera processen och extrahera information samt utföra beräkningar dynamiskt. Detta har gjorts med hjälp av Feature Manipulation Engine (FME). Resultaten utvärderas genom att jämföra de två metoderna baserat på prestanda, tillförlitlighet och syfte. 93 % av ICP-jämförelserna visade att den bästa matchningen mellan en punktmolnsmodell och en 3D-modell uppnåddes när man jämförde modeller av samma stolptyp. Punktmolnet för en S1J-stolpe visade den högsta noggrannheten när det jämfördes med en 3D-modell av samma stolptyp. Den högsta noggrannheten uppnåddes när punktmolnet för en S1J-stolpe jämfördes med 3D-modellen av en S1J-stolpe.Segmenteringsmetoden användes för att framgångsrikt segmentera balk, isolatorer och ben från punktmolnet. Ett litet urval av stolp-punktmoln samt ett lågt antal olika 3D-modeller av stolpar användes men båda metoderna kan ses som ett “proof of concept” som kan utvärderas ytterligare i framtiden. Sammanfattningsvis användes båda metoderna i detta projekt framgångsrikt för att förbättra ett kraftledningsinformationssystem.
|
4 |
The Privatization of Swedish Community Service Properties 2010-2022 : Overview and Analysis / Privatiseringen av svenska samhällsfastigheter 2010-2022 : Översikt och analysEppelin, Maia January 2024 (has links)
This study explores the dynamics of privatization in the Swedish community service properties market over the past decade. Motivated by the scarcity of comprehensive research in this domain, an overview is presented based on data from mapping and quantifying transaction volumes. The study also provides an analysis of three variables that are thought to influence the privatization trend: economics, demographics and political shifts. Drawing from an extensive dataset, the methodology involves a multi-stage process, including data retrieval from Datscha, creation of specialized datasets by contacting local government organizations, supplementary data collection from Kolada, and regression analyses. The following characteristics of community service property sales were identified in the dataset:1) the vast majority of sales were performed by private actors and not local government; 2) many Swedish municipalities and regions only sell if local government services are or will be privatized; 3) municipalities (and not regions) tend to sell community service properties together with other property and the most sold property types are related to the ageing population; 4) most sales are to big private companies that specialize in community service properties. Thus, contrary to the perception of hasty decision-making, all four characteristics suggest a nuanced understanding of established strategies within local governments. Results from the regression analyses reveal thatamong the three commonly suggested variables - economics, demographics and political shifts -political governance and demographic factors seem significant in influencing transaction patterns. The thesis concludes by outlining avenues for future exploration, emphasizing the need for more extensive datasets, qualitative studies on strategic approaches, and investigations into post-transaction property management dynamics. This study contributes to the emerging discourse on community service property privatization in Sweden, offering insights that bridge the gap between theory and practical implications for policymakers and stakeholders. / Denna studie utforskar dynamiken kring privatiseringen av den svenska marknaden för samhällsfastigheter under det senaste decenniet. Motiverat av bristen på omfattande forskning inom detta område presenteras en översikt baserad på data som kartlägger och kvantifierar transaktionsvolymer. Studien erbjuder också en analys av tre variabler som anses påverka privatiseringstrenden: ekonomi, demografi och politiska förskjutningar. Med utgångspunkt i ettomfattande dataset innefattar metodologin en flerstegsprocess, inklusive datainsamling från Datscha, skapande av specialanpassade dataset genom kontakt med kommunala organisationer, kompletterande datainsamling från Kolada och regressionsanalyser. Följande egenskaper hos försäljning av samhällsfastigheter identifierades i datasetet: 1) försäljningar utförds främst av privata aktörer snarare än av kommuner och regioner; 2) många svenska kommuner och regioner säljer endast samhällsfastigheter om fastighetens verksamhet är eller kommer att privatiseras; 3) kommuner (och inte regioner) tenderar att sälja samhällsfastigheter tillsammans med andra fastigheter, och de mest sålda fastighetstyperna är relaterade till den åldrande befolkningen; 4) de flesta försäljningarna görs till stora privata företag som är specialiserade inom samhällsfastigheter. Således antyder alla fyra egenskaper, i motsats till uppfattningen om att kommuner och regioners hastiga beslutsfattande, en nyanserad förståelse för etablerade strategier inom kommuner och regioner. Resultaten från regressionsanalyser visar att bland de tre vanligt föreslagna variablerna – ekonomi, demografi och politiska förskjutningar –verkar politisk styrning och demografiska faktorer vara betydande för att påverkan avtransaktionsmönster. Arbetet avslutas med att föreslå vägar för framtida utforskning och betonar behovet av mer omfattande dataset, kvalitativa studier om strategiska metoder och undersökningar om förvaltning av samhällsfastigheter efter transaktioner. Denna studie bidrar till den pågående diskussionen om privatisering av samhällsfastigheter i Sverige och erbjuder insikter som överbryggar klyftan mellan teori och praktiska konsekvenser för beslutsfattare och intressenter.
|
5 |
Jämförelse mellan generaliseringsverktyg i ArcGIS Pro och FME Desktop / Comparison between generalization tools in ArcGIS Pro and FME DesktopGarli, Matilda January 2020 (has links)
Vid framställning av småskaliga kartor från storskaliga kartor behöver de kartografiska objekt som kartan utgörs av generaliseras för att den ska förbli läsbar. Historiskt har generaliseringen och urvalet vid skapandet av kartor utförts av kartografen när kartan ritats, men i dag kan generaliseringen göras automatiskt för att effektivisera generaliseringsprocessen. Automatisk generalisering är en avancerad process där flera algoritmer behöver användas för att generaliseringen ska efterlikna den en kartograf gör vid ritandet av en karta. Flera olika geografiska informationssystem och andra programvaror erbjuder möjligheten att automatiskt generalisera kartobjekt vid kartframställning, vilket är nödvändigt när stora datamängder ska generaliseras, men få jämförelser har gjorts mellan olika programvarors generaliseringsverktyg. Syftet med detta examensarbete är att jämföra och utvärdera verktyg för automatisk generalisering av kartobjekt i programvarorna ArcGIS Pro och FME Desktop. Det som undersöks och jämförs är hur verktygen i de båda programvarorna skiljer sig, om tidsåtgången vid användningen av verktygen är olika och hur resultatet efter generalisering av byggnader och vägar ser ut i de båda programvarorna. Resultatet från jämförelsen kan användas av kommuner eller olika länders nationella lantmäterier och kartverk vid valet av programvara för generalisering, eller vid generalisering av webbkartor. Tre typer av generaliseringsmetoder som kan användas på kartobjekt och som undersöktes vid jämförelsen av de två programvarorna i denna studie är förenkling, utjämning och sammanslagning. Vid digital och automatisk förenkling av linjer används förenklingsalgoritmer, vilka tar bort brytpunkter från linjens geometri för att förenkla den. Vid utjämning används utjämningsalgoritmer, vilka flyttar på brytpunkter i linjens geometri för att göra den mjukare. När sammanslagning av polygoner görs vid digital och automatisk generalisering grupperas först flera mindre polygoner ihop baserat på avståndet mellan dem, för att sedan ersättas av en enda större polygon. De data som i jämförelsen generaliserades i de båda programvarorna var vektordata från GSD-Fastighetskartan och från Karlstads kommuns baskarta. Resultatet från generaliseringen sammanställdes genom att antal brytpunkter, väglinjer och byggnadspolygoner samt byggnadsarea före och efter generalisering beräknades. Tidtagning gjordes på processerna i de båda programvarorna och programvarornas olika verktyg och respektive verktygs parametrar sammanställdes och jämfördes. Resultatet från jämförelsen visar att FME Desktop saknar möjligheter att tunna ut vägnätverk. Förenkling av väglinjer tar längre tid att genomföra i ArcGIS Pro och skillnaderna mellan det kvantitativa resultatet i båda programvarorna är liten, medan det finns några betydande skillnader i det grafiska resultatet, där topologin förändras efter förenkling i FME Desktop. De grafiska skillnaderna mellan utjämning av vägarna i de båda programvarorna anses vara obetydliga, men eftersom de utjämnade väglinjerna i ArcGIS Pro följer originallinjen närmre kan det medföra färre spatiala konflikter med kartobjekt i andra kartlager. Förenkling av byggnader anses inte lämpligt att göra med de verktyg som finns tillgängliga i FME Desktop. Det finns både för- och nackdelar med att göra sammanslagning av byggnader i FME Desktop istället för i ArcGIS Pro.
|
6 |
Utvärdering av metoder för att extrahera byggnader från laserdata : En jämförelse och kvalitetskontroll av byggnadsytor i FME och ArcGIS Pro / Evaluation of methods for extracting buildings from LiDAR : A comparison and quality assessment of roof planes in FME and ArcGIS ProForsner, Tim January 2018 (has links)
In recent times the demand of high resolution 3D data has seen a rise, and the applications of airborne LiDAR data are increasing. Automatic extraction of building roofs is important in many of these applications such as city modelling. In 2018, Lantmäteriet (the Swedish mapping, cadastral and land registration authority) is planning a new flight to collect airborne LiDAR data. This data may become useful in extracting roof planes. The purpose of this thesis is to evaluate automatic methods for extracting buildings from airborne LiDAR data, and to perform a quality assessment of the footprints.This thesis proposes specific methods of extraction in using software called ArcGIS Pro and FME. The method was to process raw LiDAR points by separating the ground points, and finding building points through plane detection of points in clusters. Vegetation was removed using height difference of the points and the area. Polygons were created from the building points and a quality assessment was then carried out concerning completeness, accuracy and RMSE. The result on four different data sets shows a more appropriate extraction in FME. Lower point density sometimes leads to better extraction of buildings because of less vegetation. Higher point density has the advantage of higher accuracy and can extract smaller buildings, but includes more vegetation. The proposed method is recommended for larger buildings (>25 m2) and a LiDAR point density around 12 points/m2.
|
7 |
Rigid barrier or not? : Machine Learning for classifying Traffic Control Plans using geographical dataWallander, Cornelia January 2018 (has links)
In this thesis, four different Machine Learning models and algorithms have been evaluated in the work of classifying Traffic Control Plans in the City of Helsingborg. Before a roadwork can start, a Traffic Control Plan must be created and submitted to the Traffic unit in the city. The plan consists of information regarding the roadwork and how the work can be performed in a safe manner, concerning both road workers and car drivers, pedestrians and cyclists that pass by. In order to know what safety barriers are needed both the Swedish Association of Local Authorities and Regions (SALAR) and the Swedish Transport Administration (STA) have made a classification of roads to guide contractors and traffic technicians what safety barriers are suitable to provide a safe workplace. The road classifications are built upon two rules; the amount of traffic and the speed limit of the road. Thus real-world problems have shown that these classifications are not applicable to every single case. Therefore, each roadwork must be judged and evaluated from its specific attributes. By creating and training a Machine Learning model that is able to determine if a rigid safety barrier is needed or not a classification can be made based on historical data. In this thesis, the performance of several Machine Learning models and datasets are presented when Traffic Control Plans are classified. The algorithms used for the classification task were Random Forest, AdaBoost, K-Nearest Neighbour and Artificial Neural Network. In order to know what attributes to include in the dataset, participant observations in combination with interviews were held with a traffic technician at the City of Helsingborg. The datasets used for training the algorithms were primarily based on geographical data but information regarding the roadwork and period of time were also included in the dataset. The results of this study indicated that it was preferred to include road attribute information in the dataset. It was also discovered that the classification accuracy was higher if the attribute values of the geographical data were continuous instead of categorical. In the results it was revealed that the AdaBoost algorithm had the highest performance, even though the difference in performance was not that big compared to the other algorithms.
|
8 |
Automatic Generation of Levels of Detail : A Study on the Swedish National Road Database / Automatisk generering av detaljnivåerBörjesson, Alexandra January 2019 (has links)
When creating a map, the amount of data and which geographical information chosen to bepresented are decided based on the purpose of the map. Trafikverket is responsible for theNational Road Database that is a reference road network with a large amount of dataconnected to it. The database is built at a carriageway level where several links can be usedto represent a single road. In this thesis the database has been studied as well as thepossibilities to create an automatic workflow that creates a generalisation to road level. Someapplications and analyses that use this database are requesting input data of a higher level ofdetail. It is also found important from a cartographic point of view. Possibilities to create alinear referencing for the data between the different levels was studied as well, to make theupdates between the levels easier and not having the need to maintain two differentdatabases. It would make it possible to inherit attributes and the generic features connectedto the network.The first fully automated workflow for a generalisation of an entire map was developed in theNetherlands in 2014. Several other agencies in Sweden and Norway are currently working ongeneralisations as well and using different approaches. Statens Vegvesen, which is theNational Road Agency in Norway, has already implemented the different levels of detail intheir road database. Lantmäteriet currently has a project where their goal is to create a fullyautomated map to easily change to a larger scale.After studying the programs used in other generalisations and which programs Trafikverketnormally use, FME and ArcGIS were chosen to be used in this thesis. A small study area waschosen, and the proper data was collected from the National Road Database. The study wasconducted by a set of experiments and trying different parameter values in order to obtain asatisfactory result.Three different areas where studied, where the goal was to find a sequence of functions thatsuccessfully generalised all the areas. The areas were parallel roads, complex intersectionsand roundabouts. The result consists of a suggested workflow, but alterations hade to bemade manually since it was not possible to find a fully automated generalisation for the areachosen. Therefore, a set of functions and tools that could be developed were collected as wellin the end to make a more automated workflow possible.The result found in this thesis show that if the cartographic generalisations are more studiedand examined it should be possible to get a more automated workflow to create ageneralisation between the different level of detail. However, it might be difficult to get theworkflow fully automated due to the complexity of the intersections. / När en karta skapas baseras mängden data och vilken geografisk information som skaförmedlas beroende på syftet med kartan. Trafikverket ansvarar för den NationellaVägdatabasen som är ett referensvägnät med en stor mäng data kopplad till vägnätet.Referensvägnätet är byggt på en körbanenivå. I det här arbetet har databasen studerats ochvilka möjligheter som finns för att skapa en automatisk generalisering till vägnivå. Det finnsett behov att representera data på en annan detaljnivå för vissa applikationer och analysersom använder sig av vägdatabasen. Det är även viktigt utifrån ett kartografiskt synsätt.Möjligheterna att skapa en linjär referering mellan de olika detaljnivåerna har undersökts, föratt förenkla uppdateringar mellan nivåerna samt att inte behöva ajourhålla två olikadatabaser. Det skulle även göra det möjligt att attribut och företeelser kan ärvas mellan deolika nivåerna.Det fösta helt automatiserade arbetsflödet för en generalisering av en karta utformades 2014i Nederländerna. Flera andra myndigheter i Sverige och Norge arbetar just nu med den härtypen av generaliseringar och har använt sig av olika tillvägagångssätt. Statens Vegvesen,vilket är den statliga myndighet som ansvarar för vägar i Norge, har redan implementerat olikadetaljnivåer i deras vägdatabas. Lantmäteriet har ett projekt med målet att skapa en fulltautomatisk generalisering för olika skalor.Efter att ha studerat de olika program som vanligtvis används vid generaliseringar samt vilkaprogram som Trafikverket använder sig av så valdes FME och ArcGIS i det här arbetet. Ettmindre studieområde valdes ut och relevant data hämtades från den NationellaVägdatabasen. Studien bestod av olika experiment och tester av olika parametervärden föratt få ett acceptabelt resultat.Tre olika områden studerades, där målet var att hitta en följd operationer som skapade enlämplig generalisering för alla områden. De tre olika områdena var parallella vägar,trafikplatser och cirkulationsplatser. Resultatet består av förslag på ett arbetsflöde, men delarhar behövt göras manuellt då det inte var möjligt att hitta en helt automatiseradgeneralisering för det valda området. Förslag på olika funktioner och verktyg som kanutvecklas har sammanställts, för att kunna utvecklade ett mer automatiserat arbetssätt.Resultatet av det här arbetet visar att om kartografiska generaliseringar studeras och testasmer skulle det kunna vara möjligt att skapa ett mer automatiserat arbetssätt med syfte attmöjliggöra generaliseringar mellan olika detaljnivåer. Det kan däremot vara svårt att få dettahelt automatiserat på grund av de olika komplexa trafikplatserna.
|
9 |
Automatisering av markbedömning för nya kraftledningar med GIS : Metodutveckling med MKA / Automated land use suitability assessment for power lines in GIS : Method Development with MCABondesson, Anton, Wessman, Lisa January 2022 (has links)
The Swedish power grid is facing challenging times to cope with the transition to green renewable energy and to ensure safe and sustainable transportation through the country. The need to upkeep with maintenance and reconstruction as well as construction of new power lines requires planning and overhead power lines require extensive areas of safe zones below the power lines. In the planning stage of these streaks there are multiple areas of interest that require careful consideration and therefore evaluations of the area of interest are necessary.This bachelor thesis aims to develop a prototype for an automated tool in the initial suite selection of possible streaks for new power lines. The project is done in collaboration with NEKTAB who want to investigate the potential of developing their own tool for standardized evaluations of suite selections and to reduce workload. By utilizing multicriteria analysis (MCA) and geographical information systems (GIS), two software packages are used and compared, i.e. FME and ArcGIS Pro. Prototypes are developed from a reference project Eon is working on alongside NEKTAB. A sophisticated weighting system to evaluate areas of interest against each other is designed using the weighing method SWING and MCA-method weighted linear combination (WLC). The two prototypes from the software are compared through grid comparisons and by utilizing a predefined classification. The results show limited differences between the software though greater disparity when it comes to stability and the capability to manage larger amounts of data.The conclusions of the development and comparisons of the software and results show that both are capable in managing large amounts of data and accomplish the task, though the stability and functions are better within FME thus being more suitable for further optimization. Further development is required as the prototypes still do not manage all the requested features. Further developments are also required with the weighing system to meet expectations on a larger scale with more local and national areas of interest. / Det svenska elnätet står inför en enorm utmaning för att klara omställningen till grön energi och för att säkert transportera elen genom landet. Många kraftledningar är i behov av underhåll, ombyggnad och nybyggnation och när de gäller nybyggnation kräver luftledningar breda ledningsgator som tar stora arealer i anspråk. Det finns dock ett stort antal intressen som riskerar hamna i konflikt med etablering av kraftledningar och därför krävs en undersökning av aktuella markområden.Detta examensarbete syftar till att ta fram prototyper på automatiserade verktyg för ett första urval av möjliga etableringsområden. Arbetet utförs tillsammans med företaget NEKTAB som vill undersöka förutsättningarna för att utveckla ett eget verktyg för att standardisera urvalet och korta ned arbetstiden, detta genomförs med multikriterieanalys (MKA) och geografiska informationssystem (GIS). I arbetet med att ta fram automatiska modeller har två programvaror jämförts, ArcGIS Pro och FME, utifrån ett referensprojekt med Eon. För att uppnå detta har en viktningsmodell tagits fram som implementeras med MKA metoden weitghted linear combination (WLC). De två prototyperna jämförs genom celljämförelser utifrån en definierad klassning, framtagen utifrån referensprojektet och resultatet av jämförelsen visar på små skillnader mellan FME och ArcGIS Pro, men större skillnader i programmens stabilitet och hur de hanterar större datamängder.Slutsatser som dras är att både FME och ArcGIS Pro är användbara kandidater för ett generaliserat och utvecklat verktyg men att stabiliteten är bättre hos FME och därför mer lämplig att använda. Fortsatt arbete kommer krävas i den fortsatta utvecklingen av prototyperna tillsammans med en vidareutveckling av viktningen för att säkerställa att denna fungerar på större skala, med fler lokala och nationella intresseområden.
|
10 |
Kvalitetsprocess för baskartans byggnadsgeometrier : Metod för utvärdering av logisk konsistens i Topocad / Quality process for the basemap building geometries : A method for evaluation of the logical consistency in TopocadArcher, Ricardo January 2019 (has links)
Baskartan innehåller högdetaljerad geografisk information som ligger till grund för olika verksamhets-delar i en kommun. Ajourhållning av baskartan innebär en noggrann och krävande process för att säkerställa dess innehåll. Kvalitetskraven på innehållet varierar utifrån syfte och ändamål samt styrs av olika standarder och riktlinjer. Ett avtal som kommunerna tillsammans med Lantmäteriet kan ingå är, Ajourhållningen av adress- och byggnadsinformation samt information om övrig topografi (ABT-avtal). Avtalet innehåller dataspecifikationer som beskriver bl.a. riktlinjer kring insamling av specifika geodata, dataformat och datakvalitet. I avtalet ingår att leverans av kvalitetssäkrade byggnadsgeometrier ska ske. Avtalets syfte är att kommunerna tillsammans med Lantmäteriet uppnår en hållbar och kvalitativ process kring geografiska data. Syftet med studien var att utveckla, testa och utvärdera en metod i Topocad för att kvalitetssäkra byggnadsgeometrier med avseende på logisk konsistens, enligt ramen för ABT-avtal. Detta för att skapa ett underlag som kan användas för arbetsrutiner vid handhavande av byggnadsgeometrier. Studieområde är Hagfors, en mindre tätort i norra Värmland. I studien presenteras en specifik metod för kvalitetsprocessen i programvaran Topocad med stöd av den kvalitetskontroll som utförs av Lantmäteriets i programvaran FME. Kvalitetsprocessen omfattar kontroll av logisk konsistens och skapande av byggnadsytor. Målet med arbetet är att testa och utvärdera Topocads kapacitet att klassificera och korrigera topologiska fel i polylinjer samt skapande av polygoner. Därför i arbetet har klassificering och korrigering testats och utvärderats för ett urval av felaktiga byggnadsgeometrier genom inbyggda funktioner i Topocad. Därtill har även skapande av polygoner utförts genom en automatiserad funktion utifrån de korrigerade byggnadsgeometrierna. I resultatet framgår att klassificeringen av topologiska fel i Topocad är till viss del icke tillförlitlig. Detta eftersom en specifik typ av polylinjer med lösa noder inte kan klassificeras. Därtill framgår även att det är möjligt att korrigera och kvalitetssäkra de övriga polylinjerna med lösa noder som Topocad klarar att klassificera med hjälp av lämpliga toleransparametrar. Dessutom visar resultatet att det är genomförbart att skapa polygoner av de klassificerade och korrigerade polylinjerna. Samtidigt är polygonernas tillförligtighet och kvalitet helt beroende av de tillämpade toleransparametrarna samt de uppställda kvalitetskraven. Slutsatsen är att det inte är möjligt att utveckla en metod för hela kvalitetsprocessen som kvalitetssäkrar byggnadsgeometrier i Topocad enligt ABT-avtalet. Detta eftersom vissa delar av kvalitetsprocessen är otillförlitliga eller ej genomförbara. / The basemap contains highly detailed geographical information that is the foundation for several functions in the municipalities in Sweden. The upkeep of the basemap involves a specific and ever-evolving process to ensure the quality of its content. The quality requirements for the basemap content vary according to the purpose and are moderated by different standards and guidelines. The Maintenance of Address and Building Information and Information of Other Topography, ABT-agreement (ABT-avtal). This voluntary agreement presents guidelines and encloses data specifications on the gathering of specific geodata, data formats, and the logical consistency of the delivery. One specific part of the agreement includes the delivery of quality-assured building geometries. The agreement offers municipalities and The Department of Land Surveying (Lantmäteriet) in Sweden to enter collectively to construct a sustainable and qualitative process around the geographical information. The purpose of this study was, therefore, to develop and evaluate a quality process for the quality assurance of the building geometries regarding their logical consistency, according to the ABT agreement. This quality process can lead to creating a foundation for correctly handling the building geometries. Therefore, The Department of Land Surveying has contributed with its own quality control process to help the municipalities achieve a higher data quality. The quality control process was created in Feature Manipulation Engine (FME) program. The study area was a small urban area in the town Hagfors, situated in the north eastern part of the county of Värmland, Sweden. The study presents a specific method for the quality process in the software Topocad with the support of The Department of Land Surveying own quality control process. The method content is divided into two different parts that manage with the logical consistency in the polylines and the creation of polygons from the building geometries. The method was to test and evaluate Topocads capacity to classify and correct topological errors in the polylines, but also the creation of polygons. Classification and correction were performed for a selection of incorrect building geometries through program-built functions. In addition, the creation of polygons was also performed for the corrected building geometries through an automated function in Topocad. The result shows that the classification of topological errors in Topocad is, to a certain degree, unreliable. This because Topocad cannot classify a specific type of polylines with loose nodes. Furthermore, it also appears that it is possible to correct the other polylines with loose nodes that Topocad can manage to classify and thereby assure their quality. Moreover, the result shows that it is achievable to create polygons of the classified and corrected polylines in Topocad. At the same time, the reliability of the polygons is entirely dependent on the cluster tolerance applied in the method and the quality requirements established for the results. The study concludes that it is not possible to develop a method for the whole quality process that assure the quality of the building geometries in Topocad, according to the ABT-agreement. This because some parts of the quality process are unreliable or unachievable.
|
Page generated in 0.0416 seconds