221 |
Ledarintelligens utifrån chefs och ledarrollen / Leader Intelligence out of the role as a manager and as a leaderRonthy, Marika January 2017 (has links)
Syftet med föreliggande studie var att validera ett instrument (LQ-test) som avser att mäta ledarintelligens baserat på teorin om ledarintelligens utifrån chefs- och ledarrollen. Ledarintelligens, skapat av Ronthy (Ronthy 2006; 2013) är ett holistiskt perspektiv på ledarskap och omfattar färdigheter från tre intelligenser; rationell, emotionell och själslig intelligens med större betoning på ledarrollen med färdigheter tillhörande emotionell och själslig intelligens även kallat medmänskligt ledarskap (ML). LQ-testet bestod av 71 item och konstruerades av Ronthy. Majoriteten av dessa item är inhämtade från Larsson et al. (2003). Den rationella skalan tillskrivs chefsrollen och de övriga två skalorna tillskrivs ledarrollen. Ytterligare ett syfte var att utifrån instrumentet undersöka ledarskapets fördelning mellan kvinnor och män. Studiens deltagare var 307 chefer (68% kvinnor). Utöver LQ-testet fick även deltagarna besvara hur mycket arbetstid per månad som de använde för olika uppgifter utifrån ledarintelligensbegreppet. Enligt teorin om ledarintelligens ska tiden användas mer till att leda sig själv och andra vilket ingår i ledarrollen till skillnad från chefsrollen som ska tillgodose uppgifter som omfattar verksamhetens administration och styrning. Resultatet visade att 20% uppfattade sig som chefer med betoning på administrativa uppgifter och 80% uppfattade sig som ledare med betoning på ett medmänskligt ledarskap. Vid en genomgång av chefernas tidsåtgång för de olika arbetsuppgifterna som indelats utifrån de tre skalorna, framkom att 72% av arbetstiden användes till chefsuppgifter och 28% av arbetstiden ägnades åt ledaruppgifter såsom coachning, personlig utveckling och reflektion. Studien visade inga signifikanta skillnader mellan kvinnor och män avseende uppdelningen chef och ledare. Den relationella aspekten av ledarskapet betonas alltmer i dagens organisationer och dess innebörd har förtydligats i denna studie. / The aim of the present study was to validate an instrument called Leader Intelligence Questionnaire (LQ-test) based on the theory of leader intelligence out of being a manager and a leader. Leader intelligence is a concept created by Ronthy observing skills within the rational, emotional and spiritual intelligence with the main focus on skills within the latter two which also is a human leadership. The questionnaire of leader intelligence is created by Ronthy and has 71 item, and the majority are from Larsson et al. (2003). The instrument has three scales to study all three intelligences. The scale for the rational intelligence studies the role as a manager and the emotional and spiritual intelligence studies the role as a leader. A second aim was to examine the gender distribution among managers and leaders. The participants in the study were 307 leaders (68% women). Furthermore, the participants also responded how much time they spent per month on tasks related to the management role as well as the leadership role. According to the leader intelligence theory the manager should spend more of his/her time in the leader role leading him / herself as well as others and less time in the managerial role managing administrative tasks. The result shows that 20% perceive themselves as managers with the emphasis on administrative tasks and 80% perceive themselves as leaders with the emphasis on a human leadership. When analysing the time spent on various tasks divided within the three different scales the study showed that 72% of the time was spent on managerial tasks and 28% on leader tasks as coaching, personal development and reflection. The study showed no significant differences between men and women. The relational aspect of leadership is being empathized more and more in today´s organizations which will be clarified in this study.
|
222 |
Machine Learning Potentials - State of the research and potential applications for carbon nanostructuresRothe, Tom 13 November 2019 (has links)
Machine Learning interatomic potentials (ML-IAP) are currently the most promising Non-empirical IAPs for molecular dynamic (MD) simulations. They use Machine Learning (ML) methods to fit the potential energy surface (PES) with large reference datasets of the atomic configurations and their corresponding properties. Promising near quantum mechanical accuracy while being orders of magnitudes faster than first principle methods, ML-IAPs are the new “hot topic” in material
science research.
Unfortunately, most of the available publications require advanced knowledge about ML methods and IAPs, making them hard to understand for beginners and outsiders. This work serves as a plain introduction, providing all the required knowledge about IAPs, ML, and ML-IAPs from the beginning and giving an overview of the most relevant approaches and concepts for building those
potentials. Exemplary a gaussian approximation potential (GAP) for amorphous carbon is used to simulate the defect induced deformation of carbon nanotubes. Comparing the results with published density-functional tight-binding (DFTB) results and own Empirical IAP MD-simulations shows that publicly available ML-IAP can already be used for simulation, being indeed faster than and
nearly as accurate as first-principle methods.
For the future two main challenges appear: First, the availability of ML-IAPs needs to be improved so that they can be easily used in the established MD codes just as the Empirical IAPs. Second, an accurate characterization of the bonds represented in the reference dataset is needed to assure that a potential is suitable for a special application,
otherwise making it a 'black-box' method.:1 Introduction
2 Molecular Dynamics
2.1 Introduction to Molecular Dynamics
2.2 Interatomic Potentials
2.2.1 Development of PES
3 Machine Learning Methods
3.1 Types of Machine Learning
3.2 Building Machine Learning Models
3.2.1 Preprocessing
3.2.2 Learning
3.2.3 Evaluation
3.2.4 Prediction
4 Machine Learning for Molecular Dynamics Simulation
4.1 Definition
4.2 Machine Learning Potentials
4.2.1 Neural Network Potentials
4.2.2 Gaussian Approximation Potential
4.2.3 Spectral Neighbor Analysis Potential
4.2.4 Moment Tensor Potentials
4.3 Comparison of Machine Learning Potentials
4.4 Machine Learning Concepts
4.4.1 On the fly
4.4.2 De novo Exploration
4.4.3 PES-Learn
5 Simulation of defect induced deformation of CNTs
5.1 Methodology
5.2 Results and Discussion
6 Conclusion and Outlook
6.1 Conclusion
6.2 Outlook
|
223 |
Artificial Intelligence for Data Center Power Consumption Optimisation / Artificiell Intelligens för Energikonsumtionsoptimering i DatacenterLundin, Lowe January 2021 (has links)
The aim of the project was to implement a machine learning model to optimise the power consumption of Ericsson’s Kista data center. The approach taken was to use a Reinforcement Learning agent trained in a simulation environment based on data specific to the data center. In this manner, the machine learning model could find interactions between parameters, both general and site specific in ways that a sophisticated algorithm designed by a human never could. In this work it was found that a neural network can effectively mimic a real data center and that the Reinforcement Learning policy "TD3" could, within the simulated environment, consistently and convincingly outperform the control policy currently in use at Ericsson’s Kista data center.
|
224 |
Optimizing the role allocation process in warehouses : Digitalization of the daily rostering process by integrating AI and IoT technologies / Optimera rollfördelning processen i lagerHoitan, Serban-Andrei January 2023 (has links)
The logistics industry is one of the most important industries, being an important component of a company's activities. In recent years, the industry has gone through a large number of changes. These had the purpose of making the processes more efficient in order to reduce costs or to increase the degree of competitiveness. A very important process in the logistics industry is the allocation of roles in warehouses. Not using the available resources to their maximum capacity leads to an increase in the processing time of the units as well as to a decrease in the profitability of the companies. Allocation is done manually in the warehouse, being a complex task in which many constraints and variations must be taken into account. AI technologies and IoT systems have the potential to simplify the process of assigning workers. For this research, a warehouse in Germany operated by the Amazon company was studied. In addition to the benefits that this transition can have from a social point of view, helping to equalize the roles of high complexity and the appropriate rotation of jobs to ensure equal opportunities for development, there is an opportunity to reduce the costs associated with this process by up to 90%. This last aspect is dependent on the degree of modernization of the warehouse and on the way in which the role allocation process is carried out at the time. Most of the IoT systems necessary for the digitization and automation of this process are already implemented in warehouses. However, a common architecture is needed to be able to guarantee the integration and compatibility of the systems. The main blocker in this transition remains public opinion and financial factors, companies with a large volume of units potentially benefiting from economies of scale. / Logistikbranschen är en av de viktigaste branscherna och är en viktig del av ett företags verksamhet. De senaste åren har branschen genomgått ett stort antal förändringar. Dessa hade till syfte att effektivisera processerna för att minska kostnaderna eller öka graden av konkurrenskraft. En mycket viktig process inom logistikbranschen är fördelningen av roller i lager. Att inte använda de tillgängliga resurserna till sin maximala kapacitet leder till en ökad handläggningstid för enheterna samt till en minskad lönsamhet för företagen. Allokering sker manuellt i lagret, vilket är en komplex uppgift där många begränsningar och variationer måste beaktas. AI-teknik och IoT-system har potential att förenkla processen för att tilldela arbetare. För denna forskning studerades ett lager i Tyskland som drivs av Amazon-företaget. Förutom de fördelar som denna övergång kan ha ur en social synvinkel, hjälpa till att utjämna rollerna med hög komplexitet och lämplig rotation av jobb för att säkerställa lika möjligheter till utveckling, finns det en möjlighet att minska kostnaderna förknippade med denna process med upp till 90 %. Den sista aspekten är beroende av graden av modernisering av lagret och på det sätt på vilket rollfördelning processen går till vid tillfället. De flesta av de IoT-system som krävs för digitalisering och automatisering av denna process är redan implementerade i lager. Det behövs dock en gemensam arkitektur för att kunna garantera systemets integration och kompatibilitet. Den huvudsakliga blockeraren i denna övergång är fortfarande den allmänna opinionen och finansiella faktorer, företag med en stor volym av enheter som potentiellt kan dra nytta av stordriftsfördelar.
|
225 |
Tracking a ball during bounce and roll using recurrent neural networks / Följning av en boll under studs och rull med hjälp av återkopplande neurala nätverkRosell, Felicia January 2018 (has links)
In many types of sports, on-screen graphics such as an reconstructed ball trajectory, can be displayed for spectators or players in order to increase understanding. One sub-problem of trajectory reconstruction is tracking of ball positions, which is a difficult problem due to the fast and often complex ball movement. Historically, physics based techniques have been used to track ball positions, but this thesis investigates using a recurrent neural network design, in the application of tracking bouncing golf balls. The network is trained and tested on synthetically created golf ball shots, created to imitate balls shot out from a golf driving range. It is found that the trained network succeeds in tracking golf balls during bounce and roll, with an error rate of under 11 %. / Grafik visad på en skärm, så som en rekonstruerad bollbana, kan användas i många typer av sporter för att öka en åskådares eller spelares förståelse. För att lyckas rekonstruera bollbanor behöver man först lösa delproblemet att följa en bolls positioner. Följning av bollpositioner är ett svårt problem på grund av den snabba och ofta komplexa bollrörelsen. Tidigare har fysikbaserade tekniker använts för att följa bollpositioner, men i den här uppsatsen undersöks en metod baserad på återkopplande neurala nätverk, för att följa en studsande golfbolls bana. Nätverket tränas och testas på syntetiskt skapade golfslag, där bollbanorna är skapade för att imitera golfslag från en driving range. Efter träning lyckades nätverket följa golfbollar under studs och rull med ett fel på under 11 %.
|
226 |
Qualitative analysis of challenges in geodata management : An interview study analysing challenges of geodata management in Swedish companies and public authorities / Kvalitativ analys av utmaningar inom geodataförvaltning : En intervjustudie som analyserar utmaningar inom geodataförvatlning bland svenska företag och myndigheterKalhory, Josef January 2022 (has links)
With a constant increase of the datasphere so does the need for proper management of this data in order to minimise potential inefficiencies when it comes to the usage of this data. Geodata is no exception to the need of management. The purpose of this thesis was to investigate the current challenges of geodata management in Swedish companies and public authorities through qualitative analysis by interviews. Geodata- and GIS-users from the public and private sector made up the pool of interviewees and a total of 20 interviews were conducted. Despite a large diversity of daily tasks at hand, from data transfer for a customer in a system change process to updating attributes in NIS tools, all of the interviewees had some degree of challenges with respect to management of geodata. The results showed that the main challenges regarded inadequate or lack of quality geodata and its metadata as well as clarity of the location of these datasets. Scarcity of common understanding of geodata and GIS-systems among colleagues of geodata- and GIS-users causes these colleagues to often deliver incorrect, poorly formatted or low quality geodata and metadata. A large number of geodata file formats also contributes to confusion amongst geodata- and GIS-users and non-users which directly and indirectly causes some inefficiency. It was determined that the challenges of geodata management are highly abundant in the Swedish public and private sector. Furthermore, it was evaluated that the possible solutions would be to simplify geodata with less file formats as well as better and more clear coordination at organisational levels. Educating non-geodata and GIS-users in the workforce as well as in higher educational institutions that have majors related to geodata was also suggested as a possible solution to minimise challenges.
|
227 |
Stora mängder användardata för produktutveckling : Möjligheter och utmaningar vid integrering av stora mängder användardata i produktutvecklingsprocesser / Large Amount of User Data for Product DevelopmentBengtsson, Theodor, Hägerlöf, Jonas January 2021 (has links)
Teknikutvecklingen har bidragit till ökad mängd användardata företag har tillgång till och väntas fortsätta öka. Företag som integrerar användardata i sina produktutvecklingsprocesser väntas uppnå konkurrensfördelar. Arbetets syfte handlar om att undersöka möjligheter och utmaningar vid integrering av stora mängder användardata. Genom att besvara två frågeställningar fastställer undersökningen arbetets syfte, där även konsekvenser för beslutsfattande behandlas. Arbetsprocessen inleddes med en litteraturstudie som låg till grund för både problematiseringen och syftet som identifierar ett gap i forskningen kring användardata i produktutvecklingsprocesser. Genom litteraturstudien skapades en bredare förståelse för ämnet. Den empiriska delen utgjordes av en kvalitativ semistrukturerad intervjustudie med fyra deltagande företag och lika många respondenter med kunskap inom området. Genom kodning av materialet identifierades områden bland respondenterna som bidrog med insikter som behandlats för att bidra till forskningsområdet. Resultaten belyser möjligheter och utmaningar företag står inför vid integrering av storamängder användardata i produktutvecklingsprocesser. Studien framhåller användaren som central i produktutvecklingen, där ökad data möjliggör komplexa dataanalyser. Effektivanalys av data möjliggör snabbare itereringsprocesser och repetitiva jobb kan ersättas av mer stimulerande. Därtill blir beslutsunderlag mer omfattande och kan generera nya strategier och utformningar av erbjudanden. Studien fastställer även att ökad mängd data ställer krav på företag, där relevansen i datan är viktig och processer för hantering måste kunna definiera relevant data. Vidare måste företag mogna i rollen att integrera användardata. För att beslutsunderlag från användardata ska vara säkert bör kvalitativa och kvantitativa analyser främjas att samverka för att bekräfta varandras identifierade mönster. Integrering av stora mängder användardata i produktutvecklingsprocesser fastställs av denna studie kräva att kompetens erhålls för att i processer för hantering av data kunna säkerställa relevans genom att definiera vilken data som ska samlas in. Vid lyckad integrering uppnår företag som integrerar användardata konkurrensfördelar och kapitaliseringsmöjligheter som är långsiktigt gynnsamma. / The technology development has contributed to an increased amount of user data companies have access to and is expected to continue to increase. Companies that integrate user data into their product development processes are expected to gain competitive advantages. The purpose of the work is to investigate opportunities and challenges when integrating large amounts of user data. By answering two questions, the study determines the purpose of the work, where the consequences for decision making also are addressed. The work process began with a literature study that formed the basis for both the problematization and the purpose that identifies a gap in the research about user data in product development processes. The literature study created a broader understanding of the subject. The empirical part consisted of a qualitative semistructured interview study with four participating companies and an equal number of respondents with knowledge in the field. Coding of the material identified areas among the respondents which contributed within sights that were processed to contribute to the research area.The results highlight opportunities and challenges companies face when integrating large amounts of user data into product development processes. The study highlights the user as central to product development, where increased data enables complex data analysis. Efficient analysis of data enables faster iteration processes and repetitive jobs can be replaced by more stimulating. In addition, the basis for decision-making becomes more extensive and can generate new strategies and designs for offers. The study also determines that increased data places demands on companies, where the relevance of the data is important and processes for handling must be able to define the relevant data. Furthermore, companies need to mature in the role of integrating user data. In order to ensure the safe basis for decisionmaking from user data, qualitative and quantitative analyses should be promoted to work together to confirm each other’s identified patterns. The integration of large amounts of user data into product development processes is determined by this study to require the acquisition of competence in order to ensure relevance in data management processes by defining which data to collect. With successful integration, companies that integrate user data achieve competitive advantages and capitalization opportunities that are long-term beneficial.
|
228 |
State-of-health estimation by virtual experiments using recurrent decoder-encoder based lithium-ion digital battery twins trained on unstructured battery dataSchmitt, Jakob, Horstkötter, Ivo, Bäker, Bernard 15 March 2024 (has links)
Due to the large share of production costs, the lifespan of an electric vehicle’s (EV) lithium-ion traction battery should be as long as possible. The optimisation of the EV’s operating strategy with regard to battery life requires a regular evaluation of the battery’s state-of-health (SOH). Yet the SOH, the remaining battery capacity, cannot
be measured directly through sensors but requires the elaborate conduction of special characterisation tests. Considering the limited number of test facilities as well as the rapidly growing number of EVs, time-efficient and scalable SOH estimation methods are urgently needed and are the object of investigation in this work. The developed virtual SOH experiment originates from the incremental capacity measurement and solely relies on the commonly logged battery management system (BMS) signals to train the digital battery twins. The first examined dataset with identical load profiles for new and aged battery state serves as proof of concept. The successful SOH estimation based on the second dataset that consists of varying load profiles with increased complexity constitutes a step towards the application on real driving cycles. Assuming that the load cycles contain pauses and start from the fully charged battery state, the SOH estimation succeeds either through a steady shift of the load sequences (variant one) with an average deviation of 0.36% or by random alignment of the dataset’s subsequences (variant two) with 1.04%. In contrast to continuous capacity tests, the presented
framework does not impose restrictions to small currents. It is entirely independent of the prevailing and unknown ageing condition due to the application of battery models based on the novel encoder–decoder architecture and thus provides the cornerstone for a scalable and robust estimation of battery capacity on a pure data basis.
|
229 |
Preventing Health Data from Leaking in a Machine Learning System : Implementing code analysis with LLM and model privacy evaluation testing / Förhindra att Hälsodata Läcker ut i ett Maskininlärnings System : Implementering av kod analys med stor språk-modell och modell integritets testningJanryd, Balder, Johansson, Tim January 2024 (has links)
Sensitive data leaking from a system can have tremendous negative consequences, such as discrimination, social stigma, and fraudulent economic consequences for those whose data has been leaked. Therefore, it’s of utmost importance that sensitive data is not leaked from a system. This thesis investigated different methods to prevent sensitive patient data from leaking in a machine learning system. Various methods have been investigated and evaluated based on previous research; the methods used in this thesis are a large language model (LLM) for code analysis and a membership inference attack on models to test their privacy level. The LLM code analysis results show that the Llama 3 (an LLM) model had an accuracy of 90% in identifying malicious code that attempts to steal sensitive patient data. The model analysis can evaluate and determine membership inference of sensitive patient data used for training in machine learning models, which is essential for determining data leakage a machine learning model can pose in machine learning systems. Further studies in increasing the deterministic and formatting of the LLM‘s responses must be investigated to ensure the robustness of the security system that utilizes LLMs before it can be deployed in a production environment. Further studies of the model analysis can apply a wider variety of evaluations, such as increased size of machine learning model types and increased range of attack testing types of machine learning models, which can be implemented into machine learning systems. / Känsliga data som läcker från ett system kan ha enorma negativa konsekvenser, såsom diskriminering, social stigmatisering och negativa ekonomiska konsekvenser för dem vars data har läckt ut. Därför är det av yttersta vikt att känsliga data inte läcker från ett system. Denna avhandling undersökte olika metoder för att förhindra att känsliga patientdata läcker ut ur ett maskininlärningssystem. Olika metoder har undersökts och utvärderats baserat på tidigare forskning; metoderna som användes i denna avhandling är en stor språkmodell (LLM) för kodanalys och en medlemskapsinfiltrationsattack på maskininlärnings (ML) modeller för att testa modellernas integritetsnivå. Kodanalysresultaten från LLM visar att modellen Llama 3 hade en noggrannhet på 90% i att identifiera skadlig kod som försöker stjäla känsliga patientdata. Modellanalysen kan utvärdera och bestämma medlemskap av känsliga patientdata som används för träning i maskininlärningsmodeller, vilket är avgörande för att bestämma den dataläckage som en maskininlärningsmodell kan exponera. Ytterligare studier för att öka determinismen och formateringen av LLM:s svar måste undersökas för att säkerställa robustheten i säkerhetssystemet som använder LLM:er innan det kan driftsättas i en produktionsmiljö. Vidare studier av modellanalysen kan tillämpa ytterligare bredd av utvärderingar, såsom ökad storlek på maskininlärningsmodelltyper och ökat utbud av attacktesttyper av maskininlärningsmodeller som kan implementeras i maskininlärningssystem.
|
230 |
Grön AI : En analys av maskininlärningsalgoritmers prestanda och energiförbrukningBerglin, Caroline, Ellström, Julia January 2024 (has links)
Trots de framsteg som gjorts inom artificiell intelligens (AI) och maskininlärning (ML), uppkommer utmaningar gällande deras miljöpåverkan. Fokuset på att skapa avancerade och träffsäkra modeller innebär ofta att omfattande beräkningsresurser krävs, vilket leder till en hög energiförbrukning. Syftet med detta arbete är att undersöka ämnet grön AI och sambandet mellan prestanda och energiförbrukning hos två ML-algoritmer. De algoritmer som undersöks är beslutsträd och stödvektormaskin (SVM), med hjälp av två dataset: Bank Marketing och MNIST. Prestandan mäts med utvärderingsmåtten noggrannhet, precision, recall och F1-poäng, medan energiförbrukningen mäts med verktyget Intel VTune Profiler. Arbetets resultat visar att en högre prestanda resulterade i en högre energiförbrukning, där SVM presterade bäst men också förbrukade mest energi i samtliga tester. Vidare visar resultatet att optimering av modellerna resulterade både i en förbättrad prestanda men också i en ökad energiförbrukning. Samma resultat kunde ses när ett större dataset användes. Arbetet anses inte bidra med resultat eller riktlinjer som går att generalisera till andra arbeten. Däremot bidrar arbetet med en förståelse och medvetenhet kring miljöaspekterna gällande AI, vilket kan användas som en grund för att undersöka ämnet vidare. Genom en ökad medvetenhet kan ett gemensamt ansvar tas för att utveckla AI-lösningar som inte bara är kraftfulla och effektiva, utan också hållbara. / Despite the advancements made in artificial intelligence (AI) and machine learning (ML), challenges regarding their environmental impact arise. The focus on creating advanced and accurate models often requires extensive computational resources, leading to a high energy consumption. The purpose of this work is to explore the topic of green AI and the relationship between performance and energy consumption of two ML algorithms. The algorithms being evaluated are decision trees and support vector machines (SVM), using two datasets: Bank Marketing and MNIST. Performance is measured using the evaluation metrics accuracy, precision, recall, and F1-score, while energy consumption is measured using the Intel VTune Profiler tool. The results show that higher performance resulted in higher energy consumption, with SVM performing the best but also consuming the most energy in all tests. Furthermore, the results show that optimizing the models resulted in both improved performance and increased energy consumption. The same results were observed when a larger dataset was used. This work is not considered to provide results or guidelines that can be generalized to other studies. However, it contributes to an understanding and awareness of the environmental aspects of AI, which can serve as a foundation for further exploration of the topic. Through increased awareness, shared responsibility can be taken to develop AI solutions that are not only powerful and efficient but also sustainable.
|
Page generated in 0.0275 seconds