171 |
Test and Validation of Web ServicesCao, Tien Dung 06 December 2010 (has links)
Nous proposons dans cette thèse les approches de test pour la composition de services web. Nous nous intéressons aux test unitaire et d’intégration d’une orchestration de services web. L’aspect de vérification d’exécution en-ligne est aussi consideré. Nous définissons une plateforme de test unitaire pour l’orchestration de services web qui compose une architecture de test, une relation de conformité et deux approches de test basés sur le modèle de machine à l’états finis étendues temporisés: l’approche offline où les activités de test comme la génération de cas de test temporisé, l’exécution de test et l’assignement de verdict sont appliquées en séquentielle tandis que ces activités sont appliquées en parallèle dans l’approche online. Pour le test d’intégration d’une orchestration, nous combinons deux approches: active et passive.Au debut, l’approche active est utilisée pour activer une nouvelle session d’orchestration par l’envoi d’un message de requête SOAP. Après, tous les messages d’entré et de sortie de l’orchestration sont collectés et analysés par l’approche passive.Pour l’aspect de vérification d’exécution en-ligne, nous nous intéressons à la vérification d’une trace qui respecte un ensemble des constraintes, noté règles, ou pas. Nous avons proposé extendre le langage Nomad en définissant des constraintes sur chaque action atomique et un ensemble de corrélation de données entre les actions pour définir des règles pour le service web. Ce langage nous permet de définir des règles avec le temps futur et passé, et d’utiliser des opérations NOT, AND, OR pour combiner quelque conditions dans le contexte de la règle. Ensuite, nous proposons un algorithme pour vérifier l’exactitude d’une séquence des messages en parallèle avec le moteur de collecte de trace. / In this thesis, we propose the testing approaches for web service composition. We focus on unit, integrated testing of an orchestration of web services and also the runtime verification aspect. We defined an unit testing framework for an orchestration that is composed of a test architecture, a conformance relation and two proposed testing approaches based on Timed Extended Finite State Machine (TEFSM) model: offline which test activities as timed test case generation, test execution and verdict assignment are applied in sequential, and online which test activities are applied in parallel. For integrated testing of an orchestration, we combines of two approaches: active and passive. Firstly, active approach is used to start a new session of the orchestration by sending a SOAP request. Then all communicating messages among services are collected and analyzed by a passive approach. On the runtime verification aspect, we are interested in the correctness of an execution trace with a set of defined constraints, called rules. We have proposed to extend the Nomad language, by defining the constraints on each atomic action (fixed conditions) and a set of data correlations between the actions to define the rules for web services. This language allows us to define a rule with future and past time, and to use the operations: NOT, AND, OR to combines some conditions into a context of the rule. Afterwards, we proposed an algorithm to check correctness of a message sequence in parallel with the trace collection engine. Specifically, this algorithm verifies message by message without storing them.
|
172 |
Methodology to estimate building energy consumption using artificial intelligence / Méthodologie pour estimer la consommation d’énergie dans les bâtiments en utilisant des techniques d’intelligence artificiellePaudel, Subodh 22 September 2016 (has links)
Les normes de construction pour des bâtiments de plus en plus économes en énergie (BBC) nécessitent une attention particulière. Ces normes reposent sur l’amélioration des performances thermiques de l’enveloppe du bâtiment associé à un effet capacitif des murs augmentant la constante de temps du bâtiment. La prévision de la demande en énergie de bâtiments BBC est plutôt complexe. Ce travail aborde cette question par la mise en œuvre d’intelligence artificielle(IA). Deux approches de mise en œuvre ont été proposées : « all data » et « relevant data ». L’approche « all data » utilise la totalité de la base de données. L’approche « relevant data » consiste à extraire de la base de données un jeu de données représentant le mieux possible les prévisions météorologiques en incluant les phénomènes inertiels. Pour cette extraction, quatre modes de sélection ont été étudiés : le degré jour (HDD), une modification du degré jour (mHDD) et des techniques de reconnaissance de chemin : distance de Fréchet (FD) et déformation temporelle dynamique (DTW). Quatre techniques IA sont mises en œuvre : réseau de neurones (ANN), machine à support de vecteurs (SVM), arbre de décision (DT) et technique de forêt aléatoire (RF). Dans un premier temps, six bâtiments ont été numériquement simulés (de consommation entre 86 kWh/m².an à 25 kWh/m².an) : l’approche « relevant data » reposant sur le couple (DTW, SVM) donne les prévisions avec le moins d’erreur. L’approche « relevant data » (DTW, SVM) sur les mesures du bâtiment de l’Ecole des Mines de Nantes reste performante. / High-energy efficiency building standards (as Low energy building LEB) to improve building consumption have drawn significant attention. Building standards is basically focused on improving thermal performance of envelope and high heat capacity thus creating a higher thermal inertia. However, LEB concept introduces alarge time constant as well as large heat capacity resulting in a slower rate of heat transfer between interior of building and outdoor environment. Therefore, it is challenging to estimate and predict thermal energy demand for such LEBs. This work focuses on artificial intelligence (AI) models to predict energy consumptionof LEBs. We consider two kinds of AI modeling approaches: “all data” and “relevant data”. The “all data” uses all available data and “relevant data” uses a small representative day dataset and addresses the complexity of building non-linear dynamics by introducing past day climatic impacts behavior. This extraction is based on either simple physical understanding: Heating Degree Day (HDD), modified HDD or pattern recognition methods: Frechet Distance and Dynamic Time Warping (DTW). Four AI techniques have been considered: Artificial Neural Network (ANN), Support Vector Machine (SVM), Boosted Ensemble Decision Tree (BEDT) and Random forest (RF). In a first part, numerical simulations for six buildings (heat demand in the range [25 – 85 kWh/m².yr]) have been performed. The approach “relevant data” with (DTW, SVM) shows the best results. Real data of the building “Ecole des Mines de Nantes” proves the approach is still relevant.
|
173 |
Research and realization of assistant off-line programming system for thermal spraying / Recherche et réalisation du système assistant de la programmation hors ligne en projection thermiqueChen, Chaoyue 16 December 2016 (has links)
La technologie de programmation hors-ligne permet la génération de la trajectoire complexe en projection thermique. Dans le laboratoire du LERMPS, une extension logicielle appelée « Thermal Spray Toolkit » (T.S.T.) a été développée pour assister la programmation hors-ligne dans le domaine de projection thermique. Cependant, les efforts sont encore attendus pour améliorer sa fonctionnalité. Donc, l'objectif de cette thèse est d'améliorer l'application de la programmation hors-ligne en projection thermique. Selon la procédure d'application, les travaux de cette thèse se composent de trois parties.Premièrement, les efforts sont dévoués à l'amélioration du module « PathKit » dans T.S.T., afin d'optimiser la fonctionnalité de la génération de la trajectoire. L'algorithme pour la génération de la trajectoire sur le substrat courbe a été étudié pour assurer le pas de balayage constant. Une nouvelle trajectoire « spirale d'Archimède » a été développé pour réparer les défauts par la projection à froid. La réparation sur une pièce d'aluminium avec un défaut a été réalisé pour valider la trajectoire spirale d'Archimède. Deuxièmement, les modélisations ont été développées pour simuler l'épaisseur du dépôt en 2D et en 3D. Puis, Ils sont intégrés dans le logiciel RobotStudioTM comme un module individuel dit « ProfileKit ». Dans le « ProfileKit 2D », il peut évaluer les effets des paramètres opératoires sur le profil du dépôt et puis optimiser les paramètres. Dans le « ProfileKit 3D », l'épaisseur du dépôt peut être simulée selon la trajectoire du robot et la cinématique du robot.Les fonctionnalités sont validées par un dépôt de forme trapézoïdal élaboré par la projection à froid avec les pas debalayage variés.Dernièrement, l'analyse cinématique du robot a été étudiée pour optimiser la performance du robot pendant le processus de projection. Afin de mieux évaluer la performance du robot, un paramètre « overall parameter » (OP), la moyenne pondérée d'écart-type de la vitesse articulaire est introduit pour mesurer la complexité de la trajectoire du robot. Ensuite, l'optimisation du montage de la torche ainsi que l'optimisation de la disposition de la pièce sont étudiées par l'analyse cinématique du robot et le paramètre OP. Le résultat montre que l'optimisation cinématique peut efficacement améliorer la performance du robot pour maintenir la vitesse prédéfinie. / The offline programming technology provides the possibility to generate complex robot trajectories in thermal spray process. In the laboratory of LERMPS, an add-in software called “Thermal SprayToolkit” (T.S.T.) has been developed to assist the offline programming in the field of thermal spray.However, efforts are still expected to improve the functionality of this software. The aim of this study is to improve the application of offline programming technology in the thermal spray process. According to the procedure of the offline programming in thermal spray, the work of this thesis consists of three parts.Firstly, efforts have been dedicated to improve the module “PathKit” in T.S.T., which aim to improve the functionality of trajectory generation. The algorithm of trajectory generation for the curved substrate surface was improved to maintain a constant scan step. A novel Archimedean spiral trajectory was developed for damage component recovery application by cold spray. The experiment of an Al5056 coating depositing on a manually manufactured workpiece with a crater defect was carried out to validate the effects of spiral trajectory with adapted nozzle speed.Secondly, numerical models were developed to simulate the coating thickness distribution in 2D and 3D, and then integrated in the RobotStudio™ as an individual module named “ProfileKit”. In the “ProfileKit 2D”, it is able to evaluate the effects of operating parameters on coating profile and optimize the parameters. In the “ProfileKit 3D”, coating thickness distribution can be simulated based on the nozzle trajectory and robot kinematics data. The functionalities were validated by the trapezoid coldsprayed coating.At last, kinematic analysis was used to provide the optimization methods for a better robot performance in thermal spraying. In order to better evaluate the robot performance, an overall parameter (OP) that is the weighted mean of standard deviation of joint speed, was introduced to measure the complexity of a robot trajectory. Afterwards, the optimal nozzle mounting method as well as the optimal workpiece placement were investigated by the kinematic analysis and the overall parameter. The result shows that the kinematic optimization can effectively improve the robot performance to maintain the predefined speed.
|
174 |
Factors influencing the choice to shop online : a psychological study in a South African contextDe Swardt, Maray Annelise 25 November 2008 (has links)
As the Internet and online shopping is growing at a very fast pace worldwide, investigating this phenomenon within a South African context is crucial considering that it is a relatively new trend in this country. Typical of new trends and phenomena is the absence of research already conducted, resulting in a lack of existing literature. Very few studies have examined the factors and reasons that entice South Africans to utilise this modern shopping channel, and even less have used an in-depth, qualitative approach. To assist in filling this void, this research study examines people’s reasons for taking up or not taking up online shopping, from a South African perspective. A snowball sampling method was used to identify participants fitting the predetermined sample criteria and in-depth qualitative interviews were conducted with all participants. The theoretical approach used in the analysis was social constructionism. Findings are presented by means of constructions identified during the data analysis, and these indicated that saving time, the convenience of products being increasingly available and accessible and being able to make price comparisons easily are the main advantages of online shopping. Main disadvantages were not being able to touch and feel products, and the absence of a salesperson. Limitations of the research are discussed, along with recommendations for online retailers and future research. / Dissertation (MA)--University of Pretoria, 2008. / Psychology / unrestricted
|
175 |
Návrh marketingové strategie / Marketing Strategy ProposalKaras, Andrea January 2018 (has links)
The diploma thesis deals with the analysis of the current situation of the company Studyline s. r .o. and the innovation proposal, which is the realization of the language school in Brno. The aim of the thesis is to design a functional marketing strategy that will be applicable in real terms as early as 2018. The thesis also includes a thorough analysis of the internal and external environment, which is summarized by SWOT analysis. The work also evaluates the project's risks, thorough monitoring of the competition, and, in the final stage, marketing strategies for language schools, including the prediction of future developments.
|
176 |
Una aproximación offline a la evaluación parcial dirigida por narrowingRamos Díaz, J. Guadalupe 06 May 2008 (has links)
La evaluación parcial dirigida por narrowing (NPE: Narrowing-driven Partial Evaluation) es una técnica potente para la especialización de sistemas de reescritura, i.e., para el componente de primer orden de muchos lenguajes declarativos (lógico) funcionales como Haskell, Curry o Toy.
Los evaluadores parciales se clasifican en dos grandes categorías: online y offline, de acuerdo al momento temporal en que se consideran los aspectos de terminación del proceso de especialización. Los evaluadores parciales online son usualmente más precisos ya que tienen más información disponible. Los evaluadores parciales offline proceden comúnmente en dos etapas; la primera etapa procesa un programa (e.g., para identificar aquellas llamadas a función que se pueden desplegar sin riesgo de no terminación) e incluye anotaciones para guiar las computaciones parciales; entonces, una segunda etapa, la de evaluación parcial propiamente dicha, sólo tiene que obedecer las anotaciones y por tanto el especializador es mucho más rápido que en la aproximación online.
En esta tesis se presenta un nuevo esquema de evaluación parcial dirigido por narrowing, más eficiente y que asegura la terminación siguiendo el estilo offline. Para ello, identificamos una caracterización de programas cuasi-terminantes a los que llamamos "no crecientes". En tales programas, las computaciones por narrowing necesario presentan sólo un conjunto finito de términos diferentes (módulo renombramiento de variables). La propiedad de la cuasi-terminación es importante toda vez que su presencia es regularmente una condición suficiente para la terminación del proceso de especialización.
Sin embargo, la clase de programas cuasi-terminantes es muy restrictiva, por lo que introducimos un algoritmo que acepta programas inductivamente secuenciales---una clase mucho más amplia sobre la que está definido el narrowing necesario---y anota aquellas partes que violan la caracterización de programas no crecientes. Para procesar de mane / Ramos Díaz, JG. (2007). Una aproximación offline a la evaluación parcial dirigida por narrowing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1888
|
177 |
An empirical study of stability and variance reduction in DeepReinforcement LearningLindström, Alexander January 2024 (has links)
Reinforcement Learning (RL) is a branch of AI that deals with solving complex sequential decision making problems such as training robots, trading while following patterns and trends, optimal control of industrial processes, and more. These applications span various fields, including data science, factories, finance, and others[1]. The most popular RL algorithm today is Deep Q Learning (DQL), developed by a team at DeepMind, which successfully combines RL with Neural Network (NN). However, combining RL and NN introduces challenges such as numerical instability and unstable learning due to high variance. Among others, these issues are due to the“moving target problem”. To mitigate this problem, the target network was introduced as a solution. However, using a target network slows down learning, vastly increases memory requirements, and adds overheads in running the code. In this thesis, we conduct an empirical study to investigate the importance of target networks. We conduct this empirical study for three scenarios. In the first scenario, we train agents in online learning. The aim here is to demonstrate that the target network can be removed after some point in time without negatively affecting performance. To evaluate this scenario, we introduce the concept of the stabilization point. In thesecond scenario, we pre-train agents before continuing to train them in online learning. For this scenario, we demonstrate the redundancy of the target network by showing that it can be completely omitted. In the third scenario, we evaluate a newly developed activation function called Truncated Gaussian Error Linear Unit (TGeLU). For thisscenario, we train an agent in online learning and show that by using TGeLU as anactivation function, we can completely remove the target network. Through the empirical study of these scenarios, we conjecture and verify that a target network has only transient benefits concerning stability. We show that it has no influence on the quality of the policy found. We also observed that variance was generally higher when using a target network in the later stages of training compared to cases where the target network had been removed. Additionally, during the investigation of the second scenario, we observed that the magnitude of training iterations during pre-training affected the agent’s performance in the online learning phase. This thesis provides a deeper understanding of how the target networkaffects the training process of DQL, some of them - surrounding variance reduction- are contrary to popular belief. Additionally, the results have provided insights into potential future work. These include further explore the benefits of lower variance observed when removing the target network and conducting more efficient convergence analyses for the pre-training part in the second scenario.
|
178 |
The role of continual learning and adaptive computation in improving computational efficiency of deep learningGupta, Kshitij 01 1900 (has links)
Au cours de la dernière décennie, des progrès significatifs ont été réalisés dans le domaine de l’IA, principalement grâce aux progrès de l’apprentissage automatique, de l’apprentissage profond et de l’utilisation de modèles à grande échelle. Cependant, à mesure que ces modèles évoluent, ils présentent de nouveaux défis en termes de gestion de grands ensembles de données et d’efficacité informatique. Cette thèse propose des approches pour réduire les coûts de calcul de la formation et de l’inférence dans les systèmes d’intelligence artificielle (IA).
Plus précisément, ce travail étudie les techniques d’apprentissage continu et de calcul adaptatif, démontrant des stratégies possibles pour préserver les niveaux de performance de ces systèmes tout en réduisant considérablement les coûts de formation et d’inférence. Les résultats du premier article montrent que les modèles de base peuvent être continuellement pré-entraînés grâce à une méthode d’échauffement et de relecture, ce qui réduit considérable- ment les coûts de calcul de l’entraînement tout en préservant les performances par rapport à un entraînement à partir de zéro.
Par la suite, la thèse étudie comment les stratégies de calcul adaptatif, lorsqu’elles sont combinées avec la mémoire, peuvent être utilisées pour créer des agents d’IA plus efficaces au moment de l’inférence pour des tâches de raisonnement complexes, telles que le jeu stratégique de Sokoban. Nos résultats montrent que les modèles peuvent offrir des per- formances similaires ou améliorées tout en utilisant beaucoup moins de ressources de calcul. Les résultats de cette étude ont de vastes implications pour l’amélioration de l’efficacité in- formatique des systèmes d’IA, soutenant à terme le développement de technologies d’IA plus abordables, accessibles et efficaces. / Over the past decade, significant progress has been made by the field of AI, primarily due to advances in machine learning, deep learning, and the usage of large scale models. However, as these models scale, they present new challenges with respect to handling large datasets and being computationally efficient. This thesis proposes approaches to reducing computational costs of training and inference in artificial intelligence (AI) systems.
Specifically, this work investigates how Continual Learning and Adaptive Computation techniques can be used to reducing training and inference costs while preserving the perfor- mance levels of these systems . The findings of the first article show that foundation models can be continually pre-trained through a method of warm-up and replay, which significantly decreases training computational costs while preserving performance compared to training from scratch.
Subsequently, the thesis investigates how adaptive computation strategies, when com- bined with memory, can be utilized to create more computationally efficient AI agents at inference time for complex reasoning tasks, such as the strategic game of Sokoban. Our results exhibit that models can deliver similar or improved performances while using signifi- cantly fewer computational resources. Findings from this study have broad implications for improving the computational efficiency of AI systems, ultimately supporting the development of more affordable, accessible, and efficient AI technologies.
|
179 |
Beyond the status quo in deep reinforcement learningAgarwal, Rishabh 05 1900 (has links)
L’apprentissage par renforcement profond (RL) a connu d’énormes progrès ces dernières
années, mais il est encore difficile d’appliquer le RL aux problèmes de prise de décision du
monde réel. Cette thèse identifie trois défis clés avec la façon dont nous faisons la recherche RL elle-même qui entravent les progrès de la recherche RL.
— Évaluation et comparaison peu fiables des algorithmes RL ; les méthodes d’évaluation actuelles conduisent souvent à des résultats peu fiables.
— Manque d’informations préalables dans la recherche RL ; Les algorithmes RL sont souvent formés à partir de zéro, ce qui peut nécessiter de grandes quantités de données ou de ressources informatiques.
— Manque de compréhension de la façon dont les réseaux de neurones profonds interagissent avec RL, ce qui rend difficile le développement de méthodes évolutives de RL.
Pour relever ces défis susmentionnés, cette thèse apporte les contributions suivantes :
— Une méthodologie plus rigoureuse pour évaluer les algorithmes RL.
— Un flux de travail de recherche alternatif qui se concentre sur la réutilisation des progrès existants sur une tâche.
— Identification d’un phénomène de perte de capacité implicite avec un entraînement RL hors ligne prolongé.
Dans l’ensemble, cette thèse remet en question le statu quo dans le RL profond et montre comment cela peut conduire à des algorithmes de RL plus efficaces, fiables et mieux applicables dans le monde réel. / Deep reinforcement learning (RL) has seen tremendous progress in recent years, but it is still difficult to apply RL to real-world decision-making problems. This thesis identifies three key challenges with how we do RL research itself that hinder the progress of RL research.
— Unreliable evaluation and comparison of RL algorithms; current evaluation methods often lead to unreliable results.
— Lack of prior information in RL research; RL algorithms are often trained from scratch, which can require large amounts of data or computational resources.
— Lack of understanding of how deep neural networks interact with RL, making it hard to develop scalable RL methods.
To tackle these aforementioned challenges, this thesis makes the following contributions:
— A more rigorous methodology for evaluating RL algorithms.
— An alternative research workflow that focuses on reusing existing progress on a task.
— Identifying an implicit capacity loss phenomenon with prolonged offline RL training.
Overall, this thesis challenges the status quo in deep reinforcement learning and shows that doing so can make RL more efficient, reliable and improve its real-world applicability
|
180 |
Разработка и интеграция мобильного приложения на базе Android для оптимизации рабочих процессов в системе 1С с применением моделей машинного обучения : магистерская диссертация / Development and integration of an Android-based mobile application for optimizing work processes in the 1C system using machine learning modelsСтарков, Е. В., Starkov, E. V. January 2024 (has links)
The object of the study is the 1C system and the processes associated with its use and optimization. The purpose of the work is to develop and implement a mobile application for optimizing work processes in the 1C system using machine learning technologies. The research methods include analyzing the current state of the system, designing the application architecture, integrating with the existing system, as well as training and implementing machine learning models. Results of the work and their novelty: during the work, a mobile application with an optimized user interface and improved performance was developed. Machine learning models were implemented to predict and automate some processes. The novelty lies in the integrated approach to optimizing the 1C system using modern technologies and methods. Scope of application of results: The developed mobile application can be used in various organizations using the 1C system for automation of accounting and management accounting. This can increase the efficiency and ease of use of the system. Recommendations for implementation or results of implementation of the results of research work: it is recommended to gradually implement the mobile application in the work processes of the organization, taking into account the specifics of its activities. The results of the implementation show a significant improvement in the productivity and ease of use of the 1C system. Economic efficiency or significance of the work: Implementation of the mobile application allows you to reduce the time spent on routine operations and improve the accuracy of forecasting, which in turn leads to a decrease in operating costs and an increase in the overall efficiency of the organization. Forecast assumptions on the development of the research object: In the future, it is possible to expand the functionality of the mobile application, including new modules and integrations, as well as further improve machine learning models for more accurate forecasting and automation of processes. / Объектом исследования является система 1С и процессы, связанные с её использованием и оптимизацией. Цель работы — разработка и внедрение мобильного приложения для оптимизации рабочих процессов в системе 1С с применением технологий машинного обучения. Методы исследования включают анализ текущего состояния системы, проектирование архитектуры приложения, интеграцию с существующей системой, а также обучение и внедрение моделей машинного обучения. Результаты работы и их новизна: в ходе работы было разработано мобильное приложение с оптимизированным пользовательским интерфейсом и улучшенной производительностью. Внедрены модели машинного обучения для прогнозирования и автоматизации некоторых процессов. Новизна заключается в комплексном подходе к оптимизации системы 1С с использованием современных технологий и методов. Область применения результатов: Разработанное мобильное приложение может быть использовано в различных организациях, использующих систему 1С для автоматизации бухгалтерского и управленческого учета. Это может повысить эффективность и удобство пользования системой. Рекомендации по внедрению или итоги внедрения результатов научно-исследовательской работы: рекомендуется поэтапное внедрение мобильного приложения в рабочие процессы организации с учетом специфики её деятельности. Итоги внедрения показывают значительное улучшение производительности и удобства использования системы 1С. Экономическая эффективность или значимость работы: Внедрение мобильного приложения позволяет сократить затраты времени на выполнение рутинных операций и улучшить точность прогнозирования, что в свою очередь приводит к снижению операционных расходов и повышению общей эффективности работы организации. Прогнозные предположения о развитии объекта исследования: В будущем возможно расширение функционала мобильного приложения, включая новые модули и интеграции, а также дальнейшее улучшение моделей машинного обучения для более точного прогнозирования и автоматизации процессов.
|
Page generated in 0.0293 seconds