• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1993
  • 1022
  • 221
  • 32
  • 13
  • 9
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3399
  • 1912
  • 747
  • 646
  • 601
  • 506
  • 493
  • 490
  • 431
  • 347
  • 325
  • 325
  • 311
  • 300
  • 291
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Organisationales Lernen : ein systemtheoretisches Modell /

Scherf-Braune, Sandra. January 1900 (has links)
Diss.--Berlin, 1999. / Bibliogr. p. 185-193.
32

Automatic detection of screams and shouts in the metro / Détection automatique de cris dans le métro

Laffitte, Pierre 13 December 2017 (has links)
Ce travail s’appuie sur les principes de la reconnaissance de motifs sonores et de la modélisation statistique pour proposer un système capable de reconnaître et détecter automatiquement des cris de personnes à l’intérieur d’un métro. Utilisant des enregistrements provenant de reconstitutions de scènes d’agressions dans une rame de métro Parisien en fonctionnement, nous avons estimé des modèles statistiques issus de trois architectures de réseaux de neurones différentes (DNN, CNN et RNN/LSTM). Ces modèles ont été appris sur 3 catégories de sons à reconnaître dans un premier temps (cris, parole, et bruit environnant), puis sur des catégories introduisant des informations spécifiques au déplacement de la rame de métro (afin d’apporter une information contextuelle supplémentaire), considérant soit les événements sonores isolés soit le flux audio continu. Les résultats obtenus montrent que le modèle le plus efficace est le modèle RNN/LSTM qui permet de mieux prendre en compte la structure temporelle des événements sonores. La reconnaissance des trois catégories cris, parole et bruit de fond est probante, indépendamment du reste de l’environnement sonore, mais l’ajout d’information contextuelle permet d’améliorer les taux de reconnaissance. Nous concluons que le manque de données est un facteur limitant, qui pourrait être atténué en utilisant l’apprentissage par transfert, consistant à utiliser des réseaux plus complexes pré-appris sur des données différentes, ou des techniques d’augmentation, consistant à accroitre la taille de la base de données en créant des données artificielles à partir de celles existantes. / This study proposes a security/surveillance system capable of automatically recognizing and detecting screams and shouts in a metro, based on the theory of classification through statistical modeling. Using a database recorded from enactments of violent scenes inside a Paris metro running its course, we estimated statistical models from three different neural network architectures (DNN, CNN and RNN/LSTM). The models were first trained to recognize three categories of sounds (shouts, speech and background noise), then introducing more categories to describe the surrounding environment (in order to bring some contextual information), considering the data as isolated sound events or as a continuous audio stream. The results obtained speak to the higher modeling power of the temporal model which takes into account the temporal structure of sound events. The scores for the Classification of the three categories shout, speech and background turned out to be quite satisfying, regardless of the rest of the acoustic environment, and adding contextual information proved useful. During this study we observed that the lack of data is a major limiting factor, which could be circumvented by using transfer learning, which consists in using more complex networks pre-trained with different data, as well as data augmentation techniques, consisting in increasing the amount of data by creating synthetic data from existing ones.
33

Langue enseignée et dialecte arabe : quelle méthodologie et quelle formation pour l'acquisition de la compétence communicative en arabe standard : le cas des lycéens libyens / Language taught and arabic dialect

Dardour, Farag 15 December 2008 (has links)
Cette thèse se propose de rechercher les causes principales des difficultés rencontrées dans l’enseignement/ apprentissage de l’arabe standard en Libye, notamment en ce qui concerne l'expression orale. Dans un premier temps, nous donnons un aperçu sur l’évolution de l’arabe et l’apparition des dialectes en Libye, tout en précisant les principales différences entre l’arabe standard et les dialectes sur les plans phonétique, grammatical et lexical. Dans un deuxième temps elle a pour but de montrer clairement les facteurs en jeu dans l’enseignement de l'arabe, de proposer une réforme profonde de l’enseignement de cette langue en Libye, afin d'essayer d'élever le niveau de l'arabe standard dont la situation actuelle est devenue inquiétante. Notre travail a porté aussi sur le système éducatif en Lybie et l’intérêt accordé à l’arabe, en mettant l’accent sur les manquements qui existent de notre point de vue. Nous avons eu recours à deux types d'approches. La première est une approche théorique qui consiste à analyser des recherches et des travaux existants, relatifs aux problèmes linguistiques en didactique de classe de langue. La seconde est une investigation de terrain qui débouche sur des résultats statistiques grâce à l’enquête. L’enjeu étant de mettre l’apprenant dans un processus d’apprentissage actif, à travers une acquisition dynamique de la langue qui prend en compte les dimensions culturelles et cognitives. Pour plus d’efficacité et d’objectivité, des observations directes nous ont semblé nécessaires, afin de mieux connaître la réalité de la pratique effective au sein de la classe d'arabe. Cela nous a permis de nous rendre compte directement des procédés mis en oeuvre et d’évaluer ainsi les réactions des apprenants. / This thesis investigates the main reasons for the problems encountered in the teaching and learning of standard Arabic in Libya, specifically in speaking. Firstly I provide an overview of the evolution of Arabic and the development of Libyan dialects, while specifying the main differences between standard Arabic and Arabic dialects with regard to phonology, grammar and lexis. Secondly the thesis underscores the issues at hand in the teaching of Arabic, and suggests a reform of the way the language is taught in Libya, in view of trying to improve the overall level of standard Arabic whose present state is worrying. The thesis also addresses the Libyan educational system and the issue of Arabic, while stressing the failings of the system. I adopted two approaches. The first approach is theoretical whereby I analyzed present day research on linguistic problems in language teaching. The second is field work which provided statistical evidence thanks to an inquiry among learners and teachers. The whole issue is getting the learners to engage in an active learning process by a dynamic acquisition of language that takes into account cultural and cognitive features of the process. To guarantee efficiency and objectivity direct classroom observations were undertaken in order to identify effective practice in the Arabic classroom. I was thus in a position to observe firsthand the procedures adopted by the teachers and assess the learners' reactions.
34

Automatic Recognition of Dialogue Acts / Reconnaissance automatique des actes de dialogue / Automatické rozpoznávání dialogových aktu

Král, Pavel 12 November 2007 (has links)
Ce mémoire concerne la reconnaissance automatique des Actes de Dialogues (ADs) en tchéque et en français. Les ADs sont des unités au niveau de la phrase qui représentent des différents états d’un dialogue, comme par exemple les questions, les affirmations, les hésitations, etc. La première contribution de ce travail est de proposer et comparer plusieurs approches de reconnaissance des ADs qui sont basées sur trois types d’informations : lexical, prosodique et relative à la position des mots dans une phrase. Ces approches ont eté testées sur un corpus tchèque de dialogues homme-homme. Ce corpus a été transcris en mots manuellement, et avec un moteur de reconnaissance automatique afin de valider les approches dans des conditions réelles. Les résultats expérimentaux confirment que chaque type d’attributs apporte des informations pertinentes et complémentaires. Les méthodes proposées qui exploitent la position des mots sont particulièrement intéresantes, parce qu’elles utilisent une information globale sur la structure de la phrase. Une autre contribution conséquente, relative au manque de corpus étiquettés dans le domaine de la reconnaissance automatique des ADs, concerne le développement et l’étude de méthodes d’étiquetage semi-automatique de nouveaux corpus. Cette méthode est basée sur l’algorithme d’Espérance-Maximisation avec des ADs prédéfinis spécifiques à la tâche visée. Nous proposons deux mesures de confiance pour sélectionner les exemples qui ont le plus de chance d’être classifiés correctement. Les résultats expérimentaux démontrent que la méthode proposée est une approche intéressante pour la création de nouveaux corpus d’actes de dialogues à moindre coût. / This thesis deals with automatic Dialogue Act (DA) recognition in Czech and in French. Dialogue acts are sentence-level labels that represent different states of a dialogue, such as questions, statements, hesitations, etc. The first main contribution of this work is to propose and compare several approaches that recognize dialogue acts based on three types of information: lexical, prosodic and word positions. These approaches are tested on the Czech Railways corpus that contains human-human dialogues, which are transcribed both manually and with an automatic speech recognizer for comparison. The experimental results confirmed that every type of feature (lexical, prosodic and word positions) bring relevant and somewhat complementary information. The proposed methods that take into account word positions are especially interesting, as they bring global information about the structure of a sentence, at the opposite of traditional n-gram models that only capture local cues. One of the main issue in the domain of automatic dialogue act recognition concerns the design of a fast and cheap method to label new corpora. The next main contribution is to apply the general semi-supervised training approach based on the Expectation Maximization algorithm to the task of labeling a new corpus with the pre-defined DAs. We further proposed to filter out the examples that might be incorrect by two confidence measures, namely the maximum a posteriori probability and the a posteriori probability difference methods. Experimental results showed that the proposed method is an efficient approach to create new dialogue act corpora at low costs.
35

Le rôle de la matérialité dans l’apprentissage de la lecture : aspects du curriculum enseigné, pratique enseignante et développement chez l’élève. Une étude de cas à l’école primaire française / The role of materiality in learning to read : aspects of the taught curriculum, teaching practice and pupil development : a case of study at the French Primary School

Taisson-Perdicakis, Claire 06 December 2013 (has links)
Notre étude consiste en une recherche longitudinale pour laquelle une cohorte d’élèves a étésuivie depuis la Grande Section de l’école maternelle française (élèves de 5-6 ans) jusqu’au CoursÉlémentaire 1re année de l’école élémentaire française (élèves de 7-8 ans) dans des situationsordinaires de classe. À ces niveaux scolaires, l’un des principaux objectifs du curriculum estl’apprentissage de la lecture.Nous considérons que l’élève construit les compétences de lecture à acquérir, i.e. lescompétences caractérisant son développement potentiel, en s’appuyant sur les compétencescaractérisant son développement actuel (Vygotski, 1934/1997). Lorsqu’il apprend à lire, l’élève a à sadisposition des moyens sémiotiques relatifs à la connaissance des objets et leurs usages, ainsi qu’auxgestes et leur signification (Moro & Rodríguez, 2005), ce que nous appelons globalement lamatérialité. En conséquence, dans cette recherche, nous faisons l’hypothèse que ces premièreshabiletés relatives à la matérialité, constituent une ressource dans les situations d’enseignementapprentissagede la lecture.Nous réalisons une étude de cas dont le recueil des données, à caractère ethnographique, estconstitué de moments de classe enregistrés en vidéo, et ce, quatre fois par année scolaire. Ces douzeenregistrements vidéo sont complétés par deux entretiens semi-directifs et un entretien d’autoconfrontation; ils sont aussi mis en lien avec les Instructions officielles (programmes scolaires).L’analyse est à la fois macrogénétique et microgénétique. Pour chaque observation, concernantl’analyse macrogénétique, nous réalisons le synopsis à partir duquel nous sélectionnons des épisodessignificatifs porteurs de matérialité. Les épisodes significatifs sont constitués des événementsremarquables dont les analyses microgénétiques nécessitent l’utilisation d’outils, à savoir lestableaux des matérialités et les photogrammes.Notre étude montre que la matérialité permet aux élèves de devenir lecteurs et que les formes decette matérialité changent en fonction de l’avancée des acquisitions des élèves et des dimensions dela lecture (code et compréhension) à apprendre. / Our research consists of a longitudinal study in which one group of pupils in ordinary classroomsituations has been followed from the top level of French pre-elementary school (5- to 6 year-oldpupils) to the second level of French primary school (7- to 8 year-old pupils). For these three schoolgrades, one of the main objectives in the curriculum is learning to read.We consider that pupils build their new reading skills, i.e. the skills characterizing their potentialdevelopment, by relying on skills characterizing their actual development (Vygotski, 1934/1997).When learning to read, pupils yet have at their disposal semiotic abilities related to knowledge bothof material objects and their uses, and of basic gestures and their meaning (Moro & Rodríguez,2005), all of this we sum up under the term of materiality. Consequently, in our research, we makethe hypothesis that the children’s basic abilities related to materiality constitute a resource inteaching-learning situations.We have chosen to carry out a case study. The data collected consist of videos of class sequencescarried out four times a year for three years. These twelve videos are supplemented by two semistructuredinterviews with the teacher, one “self-confronting” interview in which the teacher isbrought to discuss her actions and by the analysis of the ministry’s school curricula. Our analysis isboth macrogenetic and microgenetic. For each teaching sequence, on the level of macrogeneticanalysis, we have made up the synopsis from which we have selected significant episodes in terms ofmateriality. The significant episodes are composed of remarkable events the microgenetic analysis ofwhich requires the use of tools such as materiality boards and photograms.Our study shows that materiality enables pupils to develop reading skills and that the forms thatmateriality takes on change according to the pupils’ acquisition progress and the aspects of reading(code and comprehension) still to be learned.
36

L'apprentissage organisationnel dans les acquisitions / Organizational learning in companies acquisitions

Guallino, Gabriel 05 March 2010 (has links)
La présente thèse étudie l'apprentissage organisationnel dans les acquisitions d'entreprises. Nous avons cherché à mesurer l'impact de l'accumulation d'expérience des acquisitions d'entreprises et la probabilité de désinvestissement future des dites acquisitions au cours du temps. Notre questionnement repose sur l'idée que 4 dimensions vont influencer cette probabilité de désinvestissement : le temps, le nombre d'acquisitions, leur caractère international et le type d'industrie des cibles. Pour construire et valider nos hypothèses de recherches, nous avons structuré notre thèse autour de cinq chapitres : une analyse de la littérature centrée sur l'apprentissage organisationnel dans les acquisitions et les théories sur les désinvestissements d'entreprises; une méthodologie de recherche fondée sur une approche post positiviste (qualitative et quantitative); une étude de cas (l'acquisition par le cimentier Lafarge du groupe anglais Blue Circle); une étude quantitative fondée sur l'analyse longitudinale entre 1994 et 2004 de 140 acquisitions réalisées aux États-Unis, et une discussion sur l'analyse de nos résultats. Sur un plan qualitatif, nos résultats montrent que quatre types de compétence en acquisitions peuvent être envisagés en fonction de l'accumulation d'expérience des acquisitions et du degré de reconnaissance institutionnelle de cette expérience. Nous avons pu observer les nombreux impacts organisationnels d'une acquisition, notamment au cours du processus d'intégration. Notre étude de cas est "exemplaire", car Lafarge possède une expertise dans le champ des acquisitions et des intégrations d'entreprises. Sur un plan quantitatif, nous avons étudié l'expérience pré et post acquisition à trois niveaux (international, métier et expérience totale). Nos résultats montrent que les relations validées entre l'accumulation d'expérience et la probabilité de désinvestir sont de nature quadratique. Trois de nos hypothèses de recherche sont totalement validées : l'expérience totale accumulée post acquisition, l'expérience métier pré acquisition et l'expérience accumulée post acquisition ont une influence significative sur la probabilité de désinvestir une entreprise. / The current thesis concerns the relationship that exists between the experience in acquisitions that a company accumulates and the probability of devestiture of the acquired companies. In order to analyse and validate our research hypotheses, we have constructed our study in five chapters : an analysis of the literature on the approach through resources, the field of organisational learning and divestiture; the presentation of our research methodology; a case study with qualitative interviews regarding the takeover of an english group, Blue Circle by the french cement manufacturer, Lafarge; quantitative study of disinvestments following 140 acquisitions made in the United States in 1994 and finally, a discussion on the results obtained. The results reveal, from a qualitative viewpoint, that an accumulation of experience and an evolution in its organisation and strategy have led the Lafarge groupto modify its integration process. The case studies also revealed the organisational impacts of the integration process and the way in which Lafarge managed its human resource difficulties. For a quantitative viewpoint, we analysed 140 acquisitions made in the United States in 1994 using a longitudinal design. We formulated twelve hypothesis, aiming to determine the relationship between the accumulation of experience (industry, country and total) and the probability of divestiture of the acquired companies. Using a panel logistic regression model, we validate four out twelve hypothesis. We demonstrated a quadratic relationship between post acquisitions experience and the probability of divestiture (U shaped); a quadratic relationship between pre and post industry acquisitions experience and the probability of divestiture (U shaped). Discussion supports the idea that only strong acquierers experience a low probability of divesting previous acquisitions and makes the difference between long term and short terme divestitures.
37

Reinforcement learning for dialogue systems optimization with user adaptation / Apprentissage par renforcement pour l’optimisation des systèmes de dialogue via l’adaptation à l’utilisateur

Carrara, Nicolas 18 December 2019 (has links)
Les systèmes d’intelligence artificielle les plus puissants utilisent désormais des modèles statistiques. Afin de construire des modèles efficaces, ces systèmes doivent collecter une quantité substantielle de données issues de l’environnement. Les assistants personnels, maisons connectées, serveurs vocaux et autres systèmes de dialogue ne font pas exception. Ces systèmes ont pour vocation d’interagir avec des humains, et pour cela, leurs données d’apprentissage se doivent d’être collectées avec ces mêmes humains. Parce que le nombre d’interactions avec une seule personne est assez faible, l’approche usuelle pour augmenter le jeu de données consiste à agréger les données de tous les utilisateurs.Une des limitations de cette approche vient du fait que, par construction, les modèles entraînés ainsi ne sont efficaces qu’avec un humain "moyen" et n’incluent pas de système d’adaptation ; cette faiblesse entraîne la restriction du service à certains groupes de personnes; Par conséquent, cela réduit l’ensemble des utilisateurs et provoque des problèmes d’inclusion. La présente thèse propose des solutions impliquant la construction de systèmes de dialogue combinant l’apprentissage par transfert et l’apprentissage parrenforcement. La thèse explore deux pistes de recherche : La première consiste à inclure un mécanisme d’adaptation dès les premières interactions avec un nouvel utilisateur. Pour ce faire, nous utilisons la connaissance accumulée avec des utilisateurs déjà connus du système. La question sous-jacente est la suivante : comment gérer l’évolution du système suite à une croissance interrompue d’utilisateurs et donc de connaissance? La première approche implique le clustering des systèmes de dialogue (chacun étant spécialisé pour un utilisateur) en fonction de leurs stratégies. Nous démontrons que la méthode améliore la qualité des dialogues en interagissant avec des modèles à base de règles et des modèles d’humains. La seconde approche propose d’inclure un mécanisme d’apprentissage par transfert dans l’exécution d’un algorithme d’apprentissage profond par renforcement, Deep Q-learning. La seconde piste avance l’idée selon laquelle les premières interactions avec un nouvel utilisateur devraient être gérées par un système de dialogue sécurisé et précautionneux avant d’utiliser un système de dialogue spécialisé. L’approche se divise en deux étapes. La première étape consiste à apprendre une stratégie sécurisée avec de l’apprentissage par renforcement. À cet effet, nous proposons un nouveau framework d’apprentissage par renforcement sous contrainte en états continus ainsi que des algorithmes les solutionnant. En particulier, nous validons, en termes de sécurité et d’efficacité, une extension de Fitted-Q pour les deux applications sous contraintes : les systèmes de dialogue et la conduite autonome. La deuxième étape implique l’utilisation de ces stratégies sécurisées lors des premières interactions avec un nouvel utilisateur ; cette méthode est une extension de l’algorithme classique d’exploration, ε-greedy. / The most powerful artificial intelligence systems are now based on learned statistical models. In order to build efficient models, these systems must collect a huge amount of data on their environment. Personal assistants, smart-homes, voice-servers and other dialogue applications are no exceptions to this statement. A specificity of those systems is that they are designed to interact with humans, and as a consequence, their training data has to be collected from interactions with these humans. As the number of interactions with a single person is often too scarce to train a proper model, the usual approach to maximise the amount of data consists in mixing data collected with different users into a single corpus. However, one limitation of this approach is that, by construction, the trained models are only efficient with an "average" human and do not include any sort of adaptation; this lack of adaptation makes the service unusable for some specific group of persons and leads to a restricted customers base and inclusiveness problems. This thesis proposes solutions to construct Dialogue Systems that are robust to this problem by combining Transfer Learning and Reinforcement Learning. It explores two main ideas: The first idea of this thesis consists in incorporating adaptation in the very first dialogues with a new user. To that extend, we use the knowledge gathered with previous users. But how to scale such systems with a growing database of user interactions? The first proposed approach involves clustering of Dialogue Systems (tailored for their respective user) based on their behaviours. We demonstrated through handcrafted and real user-models experiments how this method improves the dialogue quality for new and unknown users. The second approach extends the Deep Q-learning algorithm with a continuous transfer process.The second idea states that before using a dedicated Dialogue System, the first interactions with a user should be handled carefully by a safe Dialogue System common to all users. The underlying approach is divided in two steps. The first step consists in learning a safe strategy through Reinforcement Learning. To that extent, we introduced a budgeted Reinforcement Learning framework for continuous state space and the underlying extensions of classic Reinforcement Learning algorithms. In particular, the safe version of the Fitted-Q algorithm has been validated, in term of safety and efficiency, on a dialogue system tasks and an autonomous driving problem. The second step consists in using those safe strategies when facing new users; this method is an extension of the classic ε-greedy algorithm.
38

Une enquête sur les conditions d'implantation de l'évaluation des technologies dans les établissements universitaires de santé du Québec

Sossa, Gbênamblo Olivier January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
39

Détection de cibles hyperspectrales à partir d'apprentissage profond

Girard, Ludovic 09 December 2022 (has links)
L'imagerie hyperspectrale compte un vaste éventail d'applications, du tri des matières recyclables à l'agriculture, en passant par l'exploration géologique. Cependant, l'exploitation de cette forme d'imagerie est, encore aujourd'hui, majoritairement basée sur des algorithmes statistiques. Pendant ce temps, des domaines comme la vision numérique et le traitement de la langue naturelle jouissent d'avancées majeures propulsées par l'apprentissage profond. Plusieurs défis persistent afin d'effectuer le transfert de ces techniques d'apprentissage profond vers l'imagerie hyperspectrale. Notamment, il n'existe pas de grands ensembles de données hyperspectrales annotés, qui sont nécessaires pour l'entrainement de modèles d'apprentissage profond. De plus, la nature des données nécessite que les architectures développées en vision numérique soient adaptées afin de tirer profit de l'information spectrale plutôt que géométrique. L'objectif de ce projet est de relever ces multiples défis. Premièrement, nos travaux incluent le développement d'un vaste ensemble de données de détection de cibles hyperspectrales rares pour l'évaluation des performances. Ensuite, une technique d'entrainement basé sur la génération d'échantillons synthétiques est adaptée de la littérature afin de permettre l'entrainement sans disposer d'ensembles de données préalablement étiquetées. Finalement, des modèles développés pour la vision numérique sont modifiés afin d'exploiter la nature spectrale de nos données. Plus spécifiquement, nous nous concentrons sur le Shifted Windows (Swin) Transformer, une architecture ayant récemment fait ses preuves en dépassant les performances de plusieurs techniques de pointe, par exemple en détection d'objets sur l'ensemble Common objects in context (COCO). L'ensemble de nos travaux permettent à nos modèles d'atteindre un temps d'inférence de 86.9 % à 93.6 % plus rapide et une précision améliorée par rapport aux algorithmes statistiques traditionnels. Quoique les résultats obtenus soient prometteurs, nous concluons en énumérant de potentielles améliorations qui, selon nous, permettraient d'élever cette performance davantage. / Hyperspectral imagery has a vast range of applications, from sorting in recycling centers to agriculture, including geological exploration. However, the exploitation of this type of imagery is, to this day, mostly performed using statistical algorithms. Meanwhile, fields like computer vision and natural language processing benefit from major advances fueled by deep learning. Several challenges impede the transfer of these deep learning techniques to hyperspectral imagery. Notably, no large hyperspectral labeled datasets, which are necessary to train deep learning models, are available. Moreover, the nature of the data calls for adjustments of architectures introduced in computer vision in order to take advantage of the spectral information rather than the geometric information. Therefore, our goal is to tackle these multiple challenges. First, our work includes the development of a vast dataset for hyperspectral rare target detection to enable performance evaluation. Second, we adapt a training technique based on synthetic samples generation to allow training without previously labeled data. Finally, we adapt deep learning models developed for computer vision to suit our spectral data. Specifically, we focus on the Shifted Windows (Swin) Transformer, an architecture that has recently proven itself by surpassing multiple state-of-the-art techniques, including for object detection on the Common objects in context (COCO) dataset. Together, the different parts of our work allow our models to reach an inference time 86.9 % to 93.6 % faster and an improved accuracy over traditional statistical algorithms. Even though the achieved results are very promising, we conclude by enumerating potential improvements we think could greatly benefit the system's performance.
40

Utilisation de l'apprentissage automatique en remplacement des simulateurs de débitage de billots de bois

Martineau, Vincent 29 September 2022 (has links)
Déterminer les produits de sciage pouvant être obtenus suite à la transformation d'un billot dans une scierie permet une meilleure assignation des blocs de coupes et d'améliorer la planification des opérations. Bien que les simulateurs de débitage permettent d'anticiper la production associée à un billot, ils ne permettent pas de traiter un grand nombre de billots rapidement. Nous savons que l'apprentissage automatique peut être utilisé pour la prédiction du panier de produits associé à un billot (c.-à-d. les produits de sciage contenu dans le billot). Toutefois, prédire le panier de produits correspondant à un lot de billots n'a pas encore été étudié. Dans ce contexte, nous avons développé une approche permettant d'obtenir une prédiction par lot. Nos résultats montrent un gain jusqu'à 2% supérieur à la moyenne historique d'une scierie. Dans un second temps, les travaux précédents se concentrent sur une représentation simplifiée du billot et peu d'études ont exploré d'autres représentations du billot dans le but de prédire le panier de produits associé à chaque billot. Pour cette raison, nous avons utilisé des réseaux de neurones traitant des nuages de points obtenus par la numérisation 3D des billots. Cette approche permet une amélioration de 8% par rapport aux méthodes précédentes. Nous avons également créé une projection de la surface du billot qui performe de manière similaire aux nuages de points, tout en réduisant l'information nécessaire aux réseaux de neurones. Par la suite, nous avons combiné les diverses approches développées précédemment dans le but d'exploiter les forces de chacune des approches. Ces travaux ont permis d'observer quelques exemples où combiner les approches donnait un gain. Finalement, nous avons élaboré une série de fonctions de pertes. Celles-ci ont permis aux réseaux de neurones d'obtenir des gains de 15% par rapport aux approches initialement proposées, devenant ainsi l'état de l'art. / Determining the sawmill output that can be obtained as a result of the transformation of a log allows for better allocation of cutting blocks and improves operational planning. Although sawing simulators make it possible to anticipate the production associated with a log, they do not allow processing many logs quickly. We know that machine learning can be used to predict the basket of products associated with a log (i.e., the lumber contained in the log). However, predicting the basket of products corresponding to a batch of logs has not yet been studied. In this context, we have developed an approach to obtain a prediction for a batch of logs. Our results show a gain up to 2% higher than the historical average of a sawmill. In a second step, previous work focuses on a simplified representation of the log and few studies have explored other representations of the log in order to predict the basket of products. For this reason, we used neural networks that process point clouds obtained by 3D scanning of logs. This approach shows an 8% improvement over previous methods. We also created a projection of the log surface that performs similarly to point clouds, while reducing the information needed by the neural networks. Subsequently, we combined the various approaches developed previously with the aim of exploiting the strengths of each of the approaches. This work has made it possible to observe some examples where combining approaches improves the prediction. Finally, we developed a series of loss functions. These have allowed neural networks to achieve gains of 15% compared to the approaches initially proposed, thus becoming the state of the art.

Page generated in 0.0756 seconds