• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 169
  • 79
  • 37
  • 27
  • 23
  • 14
  • 12
  • 11
  • 8
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 729
  • 153
  • 140
  • 89
  • 76
  • 74
  • 73
  • 72
  • 72
  • 72
  • 61
  • 60
  • 51
  • 50
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Разработка алгоритма подсчета объемов материалов для железобетонного каркаса здания с использованием Dynamo (на примере жилого дома района "Солнечный") : магистерская диссертация / Development of an algorithm for calculating the volume of materials for the reinforced concrete frame of a building using Dynamo (on the example of a residential building in the "Solnechn" district)

Акуленко, А. А., Akulenko, A. A. January 2022 (has links)
Идея разработки алгоритма подсчета объемов материалов для железобетонного каркаса дополняет и соответствует принципам BIM-автоматизации. При разработке документации инженеры используют скрипты. Скрипты используют для ускорения рабочего процесса и расширения функционала Revit. Revit не способен объединить различные свойства элементом разных категорий. Для реализации алгоритма разработан ряд скриптов. Для каждой категории несущих элементов требуется обособленный скрипт. Скрипт вводит необходимый функционал Revit по средствам Dynamo. Dynamo это платформа графического программирования. В магистерской работе описано создание шаблона спецификации, параметров проекта и расчетных параметров. Новые параметры необходимы для работы спецификации. Шаблон спецификации является ведомостью объемов материалов. Шаблон спецификации работает с элементами категории «Несущая арматура». Шаблон можно настроить для получения различных элементов каркаса. Верификация алгоритма проведена на примере информационной модели жилого дома района "Солнечный" в г. Екатеринбург. Алгоритм введён в эксплуатацию в проектном бюро "R1". / The idea of developing an algorithm for calculating the volume of materials for a reinforced concrete frame complements and complies with the principles of BIM automation. When developing documentation, engineers use scripts. Scripts are used to speed up the workflow and expand the functionality of Revit. Revit cannot combine different properties of an element from different categories. A number of scenarios have been developed to implement this algorithm. A separate script is required for each category of load-bearing elements. The script introduces the necessary Revit functionality using Dynamo. Dynamo is a graphical programming platform. The Master's thesis describes the creation of a specification template, project parameters and design parameters. New parameters are required for the specification to work. The specification template is a list of volumes of materials. The specification template works with elements of the "Load-bearing reinforcement" category. The template can be customized to obtain various elements of the supporting frame. Verification of the algorithm was carried out on the example of an information model of a residential building in the residential district "Sunny" in Yekaterinburg. The algorithm was put into operation in the design bureau "R1".
192

Сбор и анализ данных из открытых источников для разработки рекомендательной системы в сфере туризма : магистерская диссертация / Collection and analysis of data from open sources to develop a recommendation system in the field of tourism

Крайнов, А. И., Krainov, A. I. January 2023 (has links)
В данной дипломной работе была поставлена цель разработки эффективной рекомендательной системы для туристических достопримечательностей на основе графов и алгоритмов машинного обучения. Основная задача состояла в создании системы, которая может анализировать обширный набор данных о туристических достопримечательностях, извлекаемых из Википедии. Используя дампы Википедии, содержащие информацию о миллионах статей, был выполнен обзор существующих рекомендательных систем и методов машинного обучения, применяемых для предоставления рекомендаций в области туризма. Затем были выбраны определенные категории туристических достопримечательностей, которые были использованы для построения моделей рекомендаций. Для обработки и анализа данных из Википедии был использован современный технический стек инструментов, включающий Python, библиотеки networkx и pandas для работы с графами и данными, а также библиотеку scikit-learn для применения алгоритмов машинного обучения. Кроме того, для разработки интерактивного веб-интерфейса был использован фреймворк Streamlit. Процесс работы включал сбор и предварительную обработку данных из Википедии, включая информацию о достопримечательностях, связях между ними и характеристиках. Для создания графа данных на основе загруженных и обработанных данных были применены выбранные алгоритмы машинного обучения. Алгоритм PageRank был использован для определения важности каждой достопримечательности в графе и формирования персонализированных рекомендаций. Демонстрационный пользовательский интерфейс, разработанный на основе фреймворка Streamlit, позволяет пользователям взаимодействовать с системой, вводить запросы о местах и получать персонализированные рекомендации. С помощью выпадающего списка можно выбрать конкретную достопримечательность, к которой требуется получить рекомендации, а с помощью ползунка можно настроить количество рекомендаций. / This thesis aimed to develop an effective recommendation system for tourist attractions based on graphs and machine learning algorithms. The main challenge was to create a system that can analyze a large set of tourist attraction data extracted from Wikipedia. Using Wikipedia dumps containing information on millions of articles, a review of existing recommender systems and machine learning methods used to provide recommendations in the field of tourism was performed. Specific categories of tourist attractions were then selected and used to build recommendation models. To process and analyze data from Wikipedia, a modern technical stack of tools was used, including Python, the networkx and pandas libraries for working with graphs and data, as well as the scikit-learn library for applying machine learning algorithms. In addition, the Streamlit framework was used to develop an interactive web interface. The work process included the collection and preliminary processing of data from Wikipedia, including information about attractions, connections between them and characteristics. Selected machine learning algorithms were applied to create a data graph based on the downloaded and processed data. The PageRank algorithm was used to determine the importance of each point of interest in the graph and generate personalized recommendations. The demo user interface, developed using the Streamlit framework, allows users to interact with the system, enter queries about places and receive personalized recommendations. Using the drop-down list, you can select a specific attraction for which you want to receive recommendations, and using the slider, you can adjust the number of recommendations.
193

Сегментация сигналов электрокардиограмм в задаче неконтролируемого построения словаря волн : магистерская диссертация / Segmentation of electrocardiogram signals in the problem of unsupervised construction of a wave dictionary

Лебедев, А. П., Lebedev, A. P. January 2023 (has links)
В данной магистерской работе мы исследуем возможности построения словаря волн биомедицинских сигналов электрокардиограммы, который в дальнейшем позволит применять методы NLP для обработки временных рядов биомедицинских сигналов. В частности, мы сосредоточимся на анализе структуры пиков и интервалов электрокардиограммы здоровых и больных аритмией и другими заболеваниями людей, средствами языка python и автоматизации этого процесса для извлечения значимой информации из биомедицинских временных рядов ЭКГ. Наша конечная цель – улучшение точности и эффективности обработки и анализа биомедицинских сигналов, что имеет важное значение как для клинической диагностики, так и для научных исследований. Решение этой задачи имеет большое практическое значение для различных областей, таких как медицина, биология и фармакология, где обработка и анализ временных рядов играют важную роль. / In this master's thesis, we are exploring the possibility of constructing a dictionary of waves of biomedical electrocardiogram signals, which in the future will allow the use of NLP methods for processing time series of biomedical signals. In particular, we will focus on analyzing the structure of peaks and intervals of the electrocardiogram of healthy people and patients with arrhythmia and other diseases, using the Python language and automating this process to extract meaningful information from biomedical ECG time series. Our ultimate goal is to improve the accuracy and efficiency of biomedical signal processing and analysis, which is important for both clinical diagnostics and scientific research. The solution to this problem is of great practical importance for various fields, such as medicine, biology and pharmacology, where processing and analysis of time series play an important role.
194

Python in der Regelungs- und Automatisierungstechnik

Knoll, Carsten 28 May 2024 (has links)
No description available.
195

Entwicklung eines Systems zur Erfassung und Untersuchung von Certificate Transparency Logs

Meesters, Johannes 13 July 2024 (has links)
Angesichts der zentralen Rolle der Root-Zertifizierungsstellen als Vertrauensanker der Web PKI und der in der Vergangenheit aufgetretenen Vorfälle mit unberechtigt oder inkorrekt ausgestellten Zertifikaten, ist die Transparenz und Verantwortlichkeit dieser Root CAs von großer Bedeutung. Seit der Einführung von Certificate Transparency Logs werden alle von Certificate Authorities ausgestellten Zertifikate in diese öffentlichen Logs eingetragen. Die Arbeit stellt die Problematik der eingeschränkten Zugänglichkeit dieser Daten für die Wissenschaft dar und entwickelt ein Werkzeug, dass eine unabhängige Aufzeichnung und Auswertung von Certificate Transparency Logs ermöglicht. Das entwickelte System nutzt eine containerbasierte Architektur und Elasticsearch zur effizienten Speicherung und Analyse der Daten. Es bewältigt ein hohes Datenaufkommen von durchschnittlich 25 Millionen Log-Einträgen pro Tag und ermöglicht eine anpassbare Datenverarbeitung und -auswertung. Die Vorverarbeitung und Indexierung sowie die Auswertung der Daten erfolgte mit Python, was eine flexible Anpassung des Systems an unterschiedliche Forschungsfragen erlaubt. Über einen Zeitraum von 42 Tagen wurden insgesamt 645 Millionen CT Log-Einträge aufgezeichnet und analysiert. Aus den Auswertungen geht hervor, wie verschiedene CAs und deren Root-Zertifikate genutzt werden und wie stark die unterschiedlichen CT Logs von CAs verwendet werden. Die Arbeit identifiziert jedoch auch Herausforderungen, wie den hohen Speicherbedarf und notwendige Optimierungen in der Datenindexierung.:1 Einleitung 1.1 Problemstellung 1.2 Zielstellung 2 Grundlagen 2.1 X509-Zertifikate 2.1.1 Felder 2.1.2 Erweiterungen 2.2 Certificate Transparency 2.2.1 Certificate Transparency Log 2.2.2 Überprüfung durch User Agents 2.2.3 Überprüfung durch Monitors 2.2.4 Eintragung durch Certificate Authorities 3 Konzeptionierung 3.1 Abfrage der CT Logs 3.2 Verarbeitung der Zertifikate 3.3 Speicherung & Auswertung der Daten 3.4 Überwachung 3.5 Docker 4 Implementierung 4.1 Plattform 4.2 Überwachung 4.3 certstream-server 4.4 Verarbeitung 4.4.1 Pufferung (stream-to-queue-publisher) 4.4.2 Vorverarbeitung (cert-indexer) 4.5 Elasticsearch 4.5.1 Speicherverbrauch 4.5.2 Field Mappings 5 Auswertung 5.1 Logs & Log-Betreiber 5.2 Certificate Authorites 5.3 Zertifikats-Größe 5.4 Gültigkeitsdauer 6 Schluss 6.1 Fazit 6.2 Ausblick A Beispiel X509 Leaf-Zertifikat B Beispiel X509 Root-Zertifikat C Beispiele Elasticsearch Abfragen Literatur Abbildungsverzeichnis Tabellenverzeichnis / In view of the central role of the root certification authorities as trust anchors of the Web PKI and the incidents that have occurred in the past with unauthorised or incorrectly issued certificates, the transparency and accountability of these root CAs is of great importance. With the introduction of Certificate Transparency Logs, all certificates issued by Certificate Authorities are now entered in public logs. The work presents the problem of the limited accessibility of this data for science and develops a tool that enables an independent recording and evaluation of Certificate Transparency Logs. The developed system uses a container-based architecture and Elasticsearch to efficiently store and analyse the data. It can handle a high volume of data, averaging 25 million log entries per day, and enables customisable data processing and analysis. Python was used to pre-process, index and analyse the data, allowing the system to be flexibly adapted to different research questions. A total of 645 million CT log entries were recorded and analysed over a period of 42 days. The analyses show how different CAs and their root certificates are used and how much the different CT logs are used by CAs. However, the work also identifies challenges, such as the high memory requirements and necessary optimisations in data indexing.:1 Einleitung 1.1 Problemstellung 1.2 Zielstellung 2 Grundlagen 2.1 X509-Zertifikate 2.1.1 Felder 2.1.2 Erweiterungen 2.2 Certificate Transparency 2.2.1 Certificate Transparency Log 2.2.2 Überprüfung durch User Agents 2.2.3 Überprüfung durch Monitors 2.2.4 Eintragung durch Certificate Authorities 3 Konzeptionierung 3.1 Abfrage der CT Logs 3.2 Verarbeitung der Zertifikate 3.3 Speicherung & Auswertung der Daten 3.4 Überwachung 3.5 Docker 4 Implementierung 4.1 Plattform 4.2 Überwachung 4.3 certstream-server 4.4 Verarbeitung 4.4.1 Pufferung (stream-to-queue-publisher) 4.4.2 Vorverarbeitung (cert-indexer) 4.5 Elasticsearch 4.5.1 Speicherverbrauch 4.5.2 Field Mappings 5 Auswertung 5.1 Logs & Log-Betreiber 5.2 Certificate Authorites 5.3 Zertifikats-Größe 5.4 Gültigkeitsdauer 6 Schluss 6.1 Fazit 6.2 Ausblick A Beispiel X509 Leaf-Zertifikat B Beispiel X509 Root-Zertifikat C Beispiele Elasticsearch Abfragen Literatur Abbildungsverzeichnis Tabellenverzeichnis
196

Automated Differentiation of Chat Application Versions and Categorisation of Changes Based on Forensic Relevance / Automatiserad Differentiering av Chattapplikationsversioner och Kategorisering av ÄndringarBaserade på Forensisk Relevans

Ljungsten, Ted, Makowski, Adam January 2024 (has links)
This thesis investigates the automation of forensic analysis in identifying and categorising forensically interestingchanges across different versions of chat applications on Android platforms. The focus is primarily on thedifferentiation of Android Package Kit (APK) using reverse-engineering techniques to reconstruct the originalsource code and comparing the source code from two different versions of the APK. Given the rapid evolutionof chat applications and their frequent updates, it is crucial for forensic investigators to understand thesechanges to maintain the integrity of legal investigations.The research introduces a comprehensive framework leveraging the open-source tools, Ghidra and BinDiff, toautomate the decompilation and differential analysis of APK files. This approach not only makes forensicanalysis less complicated but also ensures that investigators can keep pace with the continuous updates in chatapplications.Tests on the system are conducted on various versions of the Signal chat application. These tests aim todemonstrate the proposed tool in capturing significant changes between APK versions, such as alterations inlogging mechanisms, database interactions, and the use of encryption and cypher libraries.The results confirm that the integration of Ghidra and BinDiff provides a solution for automated forensicanalysis, facilitating the identification of changes and categorisation of methods based on their forensicrelevance. The study shows that the tool can pinpoint modifications and structural changes, which are essentialfor forensic investigations.
197

Разработка системы идентификации объема управляющих воздействий в энергосистемах на основе алгоритмов машинного обучения : магистерская диссертация / Development of a system for identifying the volume of control actions in power systems based on machine learning algorithms

Беззубов, А. А., Bezzubov, A. A. January 2024 (has links)
Object of the study - development and testing of machine learning algorithms for recognizing and classifying control actions in power systems. The subject of the study is the process of developing, testing and implementing a system for identifying the volume of control actions in power systems based on the use of machine learning algorithms. The purpose of the work is to develop an adaptive system that uses machine learning algorithms in the problem of identifying the volume of control actions in the power system. Research methods: theoretical analysis, data analysis, algorithms for selecting significant features, machine learning algorithms, neural networks. As part of this work, a system has been developed that is capable of determining the required volume of control actions that must be transmitted to the power system in response to incoming data to prevent an emergency at a power facility. CatBoost, RandomForest, XGBoost, and neural networks based on the PyTorch and Tensorflow libraries were considered as the studied machine learning algorithms. The most accurate results were obtained using neural networks. The developed method is capable of determining the required volume of hydrocarbons with an average accuracy of 98%. / Объект исследования – разработка и тестирование алгоритмов машинного обучения для распознавания и классификации управляющих воздействий в энергосистемах. Предметом исследования выступает процесс разработки, тестирования и внедрения системы идентификации объема управляющих воздействий в энергосистемах на основе использования алгоритмов машинного обучения. Цель работы – разработка адаптивной системы, использующей алгоритмы машинного обучения в задаче идентификации объема управляющих воздействий в энергосистеме. Методы исследования: теоретический анализ, анализ данных, алгоритмы отбора значимых признаков, алгоритмы машинного обучения, нейронные сети. В рамках данной работы разработана система, способная определять необходимый объем управляющих воздействий, который должен быть передан энергосистеме в ответ на поступившие данные для предотвращения возникновения аварийной ситуации на энергообъекте. В качестве исследуемых алгоритмов машинного обучения были рассмотрены CatBoost, RandomForest, XGBoost, и нейронные сети на основе библиотек PyTorch и Tensorflow. Наиболее точные результаты были получены с помощью нейронных сетей. Разработанный метод способен определят необходимый объем УВ с средней точностью 98%.
198

PySciDON: a Python scientific framework for development of ocean network applications

Vandenberg, Nathan 04 January 2017 (has links)
The Salish Sea is a ecologically important coastal region located on the southwest part of British Columbia. Optical measurements were taken using a set of hyperspectral radiometers, the SAS Solar Tracker developed by Satlantic. This sensor is installed on the Queen of Oak Bay ferry, that runs between Nanaimo and Vancouver, as part of the Ferry Ocean Colour Observation Systems (FOCOS) project. We developed a computer program to process the raw sensor data and generate remote sensing reflectance (Rrs) values. This performs similar functions to Prosoft, Satlantic’s own software to process the data. However, we added new features such as an additional preprocessing step to filter the data based on longitude, and new meteorological flag testing and wind speed calculations. The system was tested using Pearson correlation to compare our output with the output from Satlantic Prosoft. Testing helped us identify a few issues, such as adding longitude flags to remove data at the start and end of the trip where the sensor could produce inaccurate results if aiming at land instead of water. Another issue was where the SAS Solar Tracker does not update its pointing angle fast enough when the ferry makes sharp turns and could result in inaccurate data. / Graduate
199

Towards a computer model of the historical phonology and morphology of Latin

Roberts, Philip J. January 2012 (has links)
Research projects in Optimality Theory tend to take a synchronic view of a particular generalisation, and set their standards for rigour in typological terms (see for example Suzuki 1998 on dissimilation, Crosswhite 2001 on vowel reduction). The goal of this thesis is to use Stratal OT to take a diachronic view of multiple generalisations within the morpho-phonology of one language, namely Latin, with the principal empirical aim of producing an analysis that is demonstrably true to all the attested facts of the generalisations in question. To that end, I have written PyOT, a computer program implementing the OT calculus and a theory of phonological representations, which I use in this work to model the histories of Lachmann’s Law, rhotacism and the phonologically conditioned allomorphy of the -alis/aris- suffix as active generalisations within the phonological component of the grammar. Appendix A gives the results of the computer model applied to a dataset consisting of 185 attested Latin forms, which suffice to illustrate the exact conditions of the generalisations in question. I show that producing a complete analysis of the three generalisations I have chosen to model entails analysis of other generalisations that interact with them, including the treatment of the Indo-European voiced aspirates in Latin (which interacts with rhotacism), and reduplication in forming perfect stems (which interacts with Lachmann’s Law). Constraint rankings sufficient to model these interactions, and consistent with the general conditions of the interacting generalisations have been included in the model. The intention is for this work to illustrate both the utility of formal phonological theory in advancing hypotheses within historical-comparative linguistics, and the potential of PyOT as a tool for producing Optimality-Theoretic models of (eventually) a language’s entire phonology.
200

Calcul en n-dimensions sur GPU

Bergeron, Arnaud 04 1900 (has links)
Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron). / Le calcul scientifique sur processeurs graphiques (GPU) est en plein essor depuis un certain temps, en particulier dans le domaine de l'apprentissage machine. Cette thèse présente les efforts pour établir une structure de données de table au multidimensionnel de manière efficace sur GPU. Nous commençons par faire une revue de ce qui est actuellement similaire dans le domaine et des désavantages d'avoir une multitude d'approches. Nous nous intéresserons particulièrement aux calculs fait à partir du langage Python. Nous décrirons des techniques intéressantes telles que la réduction d'ordre et le calcul asynchrone automatique. Pour terminer nous présenterons l'utilisation du module développé dans le cadre de cette thèse. / Scientific computing on GPU (graphical processing units) is on the rise, specifically in machine learning. This thesis presents the implementation of an efficient multidimensional array on the GPU. We will begin by a review of what currently implements similar functionality and the disadvantage of a fragmented approach. We will focus on packages that have a Python interface. We will explain techniques to optimize execution such as order reduction and automatic asynchronous computations. Finally, we will present the functionality of the module developed for this thesis.

Page generated in 0.0428 seconds