• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Modélisation, commande et observation du séchage par lit fluidisé de granules pharmaceutiques

Gagnon, Francis 06 July 2022 (has links)
La fabrication de comprimés pharmaceutiques par granulation humide a typiquement recours aux lits fluidisés pour le séchage des particules. Encouragée par les agences réglementaires, l'industrie a entamé une migration vers la production continue et automatisée, mais les procédés discontinus (batch) opérés sans rétroaction, excepté un contrôle qualité en fin de cycle, demeurent largement majoritaires dans le secteur. Dans le cas des séchoirs à lit fluidisé, cette approche occasionne plusieurs complications comme le sous-séchage, le surséchage et la surchauffe des granules thermosensibles, qui peuvent conduire au rejet du lot. Toutefois, la commande avancée et la production en continu peuvent réduire les problèmes d'opération. Ce projet de recherche concerne donc l'automatisation du séchage par lit fluidisé ou, plus spécifiquement, sa modélisation, sa commande et son observation. La conception et la comparaison de diverses stratégies d'estimation et de contrôle nécessitent d'abord un modèle mathématique représentatif du procédé. Pour y parvenir, une identification « boite grise » estime les paramètres empiriques d'une description phénoménologique à deux phases du lit fluidisé à partir de données expérimentales et un second lot de données valide les simulations qui en résultent. Cet ouvrage évalue ensuite la commande prédictive linéaire, non linéaire et économique sur le simulateur calibré. L'étude explore aussi les filtres de Kalman standard et non parfumé, ainsi que l'estimateur à fenêtre glissante, comme capteur virtuel de teneur en eau des particules, le principal indicateur de qualité au séchage. La première partie de cette thèse se concentre sur les séchoirs verticaux discontinus, et la deuxième, sur un nouveau prototype de réacteur horizontal entièrement continu. Les résultats de cette recherche confirment les avantages indéniables de ces technologies, soit un contrôle serré de la qualité du produit, et une diminution des coûts et de l'empreinte environnementale des opérations. / Manufacturing pharmaceutical tablets through wet granulation typically relies on fluidized bed drying for the particles. Advocated by regulatory agencies, the industry initiated a paradigm shift towards fully continuous and automated production, but batch processes operated without feedback, except a quality control at the end of the cycle, still prevail in the sector. For the case of fluidized bed dryers, this approach results in several issues like under drying, over drying, overheating of thermosensitive granules, that can lead to the rejection of the batch. However, advanced control and continuous processing can reduce the operational hurdles. This research project investigates the automation of fluidized bed drying or, more specifically, its modeling, control and observation. The design and comparison of various estimation and feedback strategies first require a representative mathematical model of the process. For this, a grey-box identification estimates the empirical parameters of a two-phase fluidized bed description from experimental data, and a second dataset validates the resulting simulations. This work then investigates linear, nonlinear, and economic model predictive control on the calibrated simulator. The study also explores the standard and unscented Kalman filter, and the moving-horizon estimator, as soft sensors for the particle moisture content, a critical quality attribute at drying. The first part of this thesis focuses on vertical batch dryers, and the second one, on a new prototype of a fully continuous horizontal reactor. The results of this research confirm the undeniable advantages of those technologies, namely a tight control of the product quality, and reductions in the costs and the environmental footprint of the operations.
472

Kinematic analysis of Five-DOF (3T2R) parallel mechanisms with identical limb structures

Tale Masouleh, Mehdi 17 April 2018 (has links)
Cette thèse de doctorat s'adresse tout particulièrement à deux groupes de personnes travaillant sur la cinématique des mécanismes parallèles : les ingénieurs mécaniciens et les géométriciens. À l'origine, ce travail devait être basé uniquement sur des concepts et des outils d'ingénierie. Cependant, à mi-parcours, il a été pertinent d'utiliser un aspect pratique de l'algèbre géométrique et, désormais, cette thèse se veut un judicieux mélange de ces deux approches. En effet, contrairement à ce qu'on trouve généralement dans la littérature, le travail présenté ici ne favorise pas une méthode par rapport à l'autre, mais vise plutôt à utiliser les synergies possibles entre les méthodes de l'ingénierie mécanique et de l'algèbre géométrique. En gardant comme étude de cas l'analyse cinématique de mécanismes parallèles symétriques à cinq degrés de liberté, trois translations et deux rotations, cette thèse peut être considérée comme une ligne directrice de l'application de l'algèbre géométrique dans l'analyse cinématique de mécanismes parallèles. Le choix de ce cas s'est avéré heureux puisque les propriétés cinématiques de ce type d'architecture se sont révélées tout à fait remarquables. Dans cette optique, les chapitres 2 à 4 sont consacrés à l'adaptation des outils de l'algèbre géométrique à l'analyse cinématique des mécanismes parallèles. Ces chapitres gardent toujours en toile de fond l'étude des mécanismes parallèles symétriques à cinq degrés de liberté. La contribution majeure du chapitre 2 est le développement d'une approche systématique pour la modélisation cinématique des mécanismes parallèles symétriques qui est appliquée par la suite dans le chapitre 3 aux mécanismes parallèles iii symétriques à cinq degrés de liberté. Cette application donne des résultats étonnants en ce qui a trait au nombre de solutions du problème géométrique direct : 1680 solutions finies et 208 solutions réelles pour une architecture donnée. Toutes ces solutions sont en termes de paramètres de Study, un espace projectif à sept dimensions. Au chapitre 4, la transformation entre cet espace à sept dimensions et celui à trois dimensions est introduite afin d'obtenir les coordonnées cartésiennes et les angles correspondants pour chaque solution. En outre, les propriétés cinématiques de premier ordre sont également étudiées dans ce chapitre afin d'avoir une meilleure compréhension du mécanisme. Le lecteur pourra ensuite suivre dans les chapitres 5 et 6 une étude cinématique basée sur l'espace à trois dimensions. La préoccupation principale du chapitre 5 est l'analyse constructive de l'espace atteignable par une approche géométrique. Un algorithme proposé dans la littérature pour trouver l'espace atteignable pour une orientation constante d'un mécanisme parallèle à six degrés de liberté est alors étendu aux mécanismes parallèles symétriques à cinq degrés de liberté. Le modèle CAO de l'espace atteignable est également présenté. Les résultats de ce chapitre montrent que l'espace atteignable des mécanismes parallèles symétriques à cinq degrés de liberté peut posséder une petite partie isolée. Le chapitre 6 complète quant à lui la réflexion engagée au chapitre 3 sur le problème géométrique direct. Ce problème est ainsi étudié pour des modèles simplifiés qui ont des solutions explicites ou une expression monovariable. Pour une conception quasi-générale, une expression monovariable de degré 220 est obtenue. Dans ce chapitre, nous dévions un peu de l'espace à trois dimensions pour celui à sept dimensions afin de valider et d'affiner les résultats obtenus, une approche qui peut être appliquée à d'autres cas. Le chapitre 7 est pour sa part consacré à l'analyse des singularités des mécanismes parallèles symétriques à cinq degrés de liberté qui repose sur la géométrie grassmanni-enne. Ce chapitre couvre largement l'étude des configurations singulières des mécanismes parallèles symétriques à cinq degrés de liberté pour les architectures simplifiées proposées dans le chapitre 6. La contribution principale de ce chapitre est l'application de la géométrie grassmannienne aux mécanismes parallèles à mobilité réduite pour lesquels une ligne à l'infini est parmi les lignes de Plùcker. Enfin, le chapitre 8 conclut cette thèse en résumant les résultats obtenus dans les chapitres précédents. Il décrit également plusieurs travaux en cours et propose des sujets de travaux futurs pour une nouvelle orientation de la recherche.
473

A Machine Learning Approach for the Smart Charging of Electric Vehicles

Lopez, Karol Lina 07 May 2019 (has links)
Avec l’adoption croissante des véhicules électriques, il y a un intérêt pour utiliser des tarifs dynamiques dont le prix dépend de la demande actuelle, pour encourager les utilisateurs à recharger leurs véhicules en période de faible demande évitant les pics d’électricité pouvant dépasser la capacité installée. Le problème que devaient affronter les utilisateurs de véhicules électriques est qu’ils doivent s’assurer que l’énergie électrique présente dans les batteries est suffisante pour les déplacements et que les périodes de recharge correspondent à des périodes où le prix de l’électricité est bas. La plupart des approches actuelles de planification de recharge supposent une connaissance parfaite des futurs prix de l’électricité et de l’utilisation du véhicule, ce qui nuit à leur applicabilité dans la pratique. Cette thèse considère la modélisation de la recharge intelligente des véhicules électriques pour déterminer, lors des sessions de connexion, les moments où le véhicule doit se recharger afin de minimiser le coût payé pour l’énergie de ses déplacements. La thèse comporte quatre principales contributions: 1) Modèle de recharge optimale des véhicules électriques pour générer une série de décisions en utilisant la connaissance a priori du prix de l’électricité et de l’énergie utilisée, en utilisant la programmation dynamique comme méthode d’optimisation. 2) Création d’un modèle de système d’information incluant des variables connexes au modèle de recharge des véhicules électriques dans un cadre guidé par des données. 3) Méthode de sélection des données pertinentes utilisant la stratification de données pouvant réduire significativement le temps requis pour entraîner les modèles de prévision avec des résultats proches de ceux obtenus en utilisant l’ensemble de données complet. 4) Modèle de classification en ligne qui permet de déterminer s’il faut charger ou non le véhicule à l’aide de modèles d’apprentissage automatique qui peuvent générer, en temps réel, une décision de recharge quasi-optimale sans tenir compte d’une connaissance de l’information future. Nous démontrons comment la combinaison d’une méthode d’optimisation hors ligne, telle que la programmation dynamique, avec des modèles d’apprentissage automatique et un système d’information adéquat peut fournir une solution très proche de l’optimum global, sans perte d’applicabilité dans le monde réel. De plus, la polyvalence de l’approche proposée permet d’envisager l’intégration d’un plus grand nombre de variables à l’entrée du modèle, ainsi que d’autres actions comme par exemple fournir d’énergie au réseau électrique pour aider à réduire les pics de demande ce qui pourrait être utile dans un contexte de vehicle-to-grid (V2G). / With the increasing adoption of electric vehicles, there is an interest to use dynamic tariffs where the price depends on the current demand, encouraging users to charge their vehicles in periods of low demand, avoiding electricity peaks that may exceed the installed capacity. The issue an electric vehicle user must tackle is that it should ensure that its electric power is sufficient for its trips and that the recharge periods correspond to periods where the price of electricity is low. Most current charge scheduling approaches assume a perfect knowledge of the future prices and car usage, which hinders their applicability in practice. This thesis considers the modelling of the intelligent recharge of electric vehicles to determine, during the connection sessions, the times when the vehicle may be charged in order to minimize the overall energy cost. The thesis has four main contributions: 1) Optimum electric vehicle recharge model to generate a series of decisions using full knowledge of the price of electricity and energy used using dynamic programming as a method of optimization. 2) Creation of an information system model which includes variables relevant to the recharging model of electric vehicles in a framework data-driven. 3) Method of selecting relevant data using the stratification by clusters which can significantly decrease the time required to train forecasting models with results close to those obtained using the complete dataset. 4) Classification model which allows the determination of whether or not to charge the vehicle using machine learning models that can generate, in real time, a near-optimal recharge decision without considering perfect knowledge of the future information. We demonstrated how combining an offline optimization method, such as dynamic programming with machine learning models and a coherent information system can provide a solution very close to the global optimum without loss of applicability in real-world. Moreover, the versatility of the proposed approach allows the consideration of the integration of a larger set of variables at the input of the model, as well as other actions such as for example supplying energy to the network to further help reducing demand peaks which could be useful in a vehicle-to-grid context (V2G).
474

Trois essais en dynamique financière

Mouelhi, Chaouki 16 April 2018 (has links)
Dans des environnements concurrentiels de plus en plus dynamiques, le rapprochement entre l'analyse financière et l'analyse stratégique s'avère indispensable. Ceci est d'autant plus vrai que les différents aspects de la dynamique concurrentielle de la firme (la stratégie concurrentielle, le positionnement stratégique, les avantages concurrentiels durables) ont un impact sur la valeur de la firme. Le premier essai est une investigation sur l'utilité de la durée de l'avantage concurrentiel de la firme dans la sélection de portefeuilles et la prédictibilité des rendements. Le cadre théorique de notre problématique de recherche s'appuie sur les trois concepts suivants : (1) l'intégration des anticipations conjuguées des investisseurs quant aux perspectives futures des firmes dans le cadre de leur équilibre économique concurrentiel, (2) l'hypothèse de la circulation bidirectionnelles de l'information et (3) la pertinence de l'avantage concurrentiel durable de la firme comme un indicateur de sa performance future. La recherche empirique de cet essai consiste à quantifier, dans le cadre de l'équilibre économique concurrentiel, l'avantage concurrentiel durable de la firme en mesurant sa durée implicite telle qu'exprimée par le marché (MICAP: Market Implied Competitive Advantage Period). Étant donné que sur le plan pratique, la standardisation de la MICAP n'est pas faisable, l'analyse s'effectue sur la variation annuelle de cette variable, à savoir la [delta]MICAP. Les résultats, de la comparaison de trois stratégies d'investissement, de la méthodologie de rangs, des coefficients de corrélation, des études bidimensionnelles et des régressions sur données de panel montrent que la [delta]MICAP présente un pouvoir informatif et prédictif important quant à la création de valeur boursière, même en présence des variables de contrôle. Dans le même cadre que celui de l'interaction entre la finance et la stratégie, le second essai s'intéresse à l'analyse de la relation entre le coût du capital et la dynamique concullentielle de la firme. L'analyse consiste à estimer le coût des fonds propres et par la suite le coût du capital par des modèles ex ante qui tiennent compte de la dynamique concurrentielle de la finne via son équilibre économique concurrentiel. L'originalité de ces modèles est d'intégrer les anticipations conjuguées des investisseurs qui ont réellement une influence sur la valeur des titres, et celle des dirigeants dans le cadre de la dynamique concurrentielle qui conduit à un équilibre économique. Afin d'établir les assisses théoriques des différentes hypothèses de recherche nous développons quatre propositions. L' investigation empirique consiste à comparer les résultats des coûts du capital issus d'un modèle statique qu'est le CAPM à ceux issus de trois modèles ex ante qui tiennent compte de la dynamique concurrentielle de la firme, à savoir le DRIM (Discounted Residual Income Model), le modèle de Pointon et EI-Masry (2007) et le MÉDDAF (Modèle d'Équilibre Dynamique Des Actifs Financiers) de Saint-Pierre (2002). Les résultats des différents tests (tests de la différence, tests de Cox et les tests J) montrent la pertinence de l'estimation du coût du capital par les modèles qui tiennent compte de la dynamique de la firme. L'analyse de robustesse valide empiriquement la relation entre le coût du capital de la firme et sa dynamique concurrentielle. Le troisième essai utilise les récents développements de l'économétrie des panels dynamiques non stationnaires afin de réexaminer la relation entre les mesures de performance externes et internes de la firme. L'analyse consiste à tester l'existence d'une relation dynamique d'équilibre à long terme, c'est-à-dire une relation de cointégration, entre la valeur marchande ajoutée (VMA) et cinq mesures de performance internes, à savoir le bénéfice par action (BPA), le cash-flow d'exploitation (CFE), le bénéfice résiduel (BR), le rendement sur les fonds propres (ROE) et la valeur économique ajoutée (VÉA).Dans un tel cadre, l'existence des relations de cointégration permettent d'apprécier le pouvoir explicatif et prédictif des mesures de performance internes quant à la performance au marché de la firme. Par ailleurs, ce réexamen tient compte de principaux facteurs contextuels de la firme, à savoir la taille et le cycle de vie. En effet, l'analyse de sous-échantillons plus homogènes permet de concilier les considérations d'ordre économétrique avec celles d'ordre théorique. Les résultats du test de stationnarité de lm, Pesaran et Shin (2003) et le test de cointégration de Pedroni (2004) appliqués sur un échantillon de 420 firmes américaines sur la période 1990-2004 montrent l'existence d'une relation dynamique d'équilibre à long terme entre la VMA et les mesures de performance internes à l'exception du ROE. En outre, indépendamment du facteur contextuel considéré, les résultats indiquent que le modèle (VMA-VÉA) affichent toujours la relation de cointégration la plus puissante par rapport aux autres modèles. Enfin, une analyse de robustesse via l'estimation des modèles à correction d'erreurs (ECM) et l'analyse des relations de corrélation versus les relations de cointégration supportent les résultats précédents.
475

Modélisation hydrologique probabiliste par réseaux de neurones : calibration de la distribution prédictive

Boucher, Marie-Amélie 12 April 2018 (has links)
Depuis quelques années, les prévisions probabilistes suscitent un intérêt croissant parmi les communautés météorologique et hydrologique. Cet intérêt découle en majeure partie du fait que ce type de prévision permet l'évaluation de l'incertitude associée aux prévisions. Les prévisions d'ensemble peuvent être construites à partir de réseaux de neurones. Cette méthode est avantageuse pour sa simplicité et pour sa rapidité d'exécution. L'évaluation de l'incertitude associée aux prévisions par réseaux de neurones ne peut s'effectuer analytiquement puisque l'expression mathématique du modèle est inconnue. C'est pourquoi des méthodes comme celle du rééchantillonnage avec remise (bootstrap) sont parfois employées pour déterminer l'incertitude associée à la prévision déterministe issue d'un réseau de neurones. Cette technique permet d'obtenir un ensemble de prévisions pour chaque pas de temps. Une loi de probabilité peut alors être ajustée aux prévisions d'ensemble afin d'obtenir une distribution prédictive. Cependant, à notre connaissance, la fiabilité de cette prévision probabiliste n'a pas été démontrée. La calibration de cette distribution ainsi que les mesures à prendre pour la corriger ne semble pas avoir été examinée à ce jour dans un contexte hydrologique. Ce mémoire présente différentes méthodes graphiques et numériques pour vérifier la qualité des prévisions probabilistes hydrologiques issues de réseaux de neurones. Ces méthodes ne sont pas uniquement applicables aux réseaux de neurones et pourraient être utilisées avec n'importe quel type de prévisions probabilistes de variables continues. La calibration de la distribution prédictive sera évaluée et corrigée et l'influence de la technique du rééchantillonnage avec remise sur les prévisions d'ensemble sera investiguée. / Since the last few years, there has been an increasing interest for probabilistic forecasting in the meteorological and hydrological community. This enthusiasm arises in a large extent from the possibility of uncertainty assessment that probabilistic forecasting has brought. Hydrological ensemble forecasting may be constructed using neural networks, which is a very useful tool regarding its simplicity and execution speed. Since the mathematical description the neural model remains unknown by the user, it is not possible to evaluate the forecast's uncertainty in a strict mathematical way. Some methods like the bootstrap can be used to overcome this difficulty. The bootstrap generates an ensemble of forecasts at each time step. Then, the ensemble can be used to fit a law of probability in order to obtain a predictive distribution. However, to the extent of our knowledge, the reliability of this probabilistic forecast has never been investigated. In addition, the calibration of this distribution as well as methods to correct it does not appear to have been investigated up to day in a hydrological context. This document presents graphical and numerical methods used to assess the quality of probabilistic hydrological forecasts obtained from neural networks. The methods employed here apply to any type of probabilistic forecasts of continuous variable and are not restricted to neural networks forecasting. The calibration of the predictive distribution will be evaluated and corrected, and the impact of the bootstrap will be investigated.
476

Estimation des préférences face au risque à l'aide d'une approche flexible

Trottier-Pérusse, Bruno 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / "Ce mémoire présente une méthode flexible utilisant les splines cubiques d'estimer le coefficient d'aversion au risque absolue ou relative d'individus en contexte d'utilité espérée. Cette méthode est développée de manière à être utilisée conjointement avec la méthode expérimentale de l'arbitrage de Wakker et Deneffe (1996) permettant de trouver des points sur la courbe d'utilité d'une personne répondant à des questions au sujet de loteries. À l'aide de simulations de type Monte Carlo, nous montrons qu'il est possible d'utiliser ces points afin d'estimer les paramètres de segments cubiques de splines et ensuite d'utiliser ces paramètres pour estimer l'aversion au risque sans imposer d'hypothèse forte quant à la forme de la fonction d'utilité de l'individu. Cela a pour but d'éviter les biais dus aux erreurs de spécification et nous montrons que lorsque la fonction d'utilité réelle est inconnue, les splines s'avèrent un instrument utile générant des erreurs plus faibles qu'une approche paramétrique classique utilisant une forme fonctionnelle non flexible. Cette conclusion tient même lorsque nous introduisons des erreurs sous forme d'arrondissement des réponses obtenues lors de l'application de la méthode de l'arbitrage malgré le fait que les estimations tendent à être de moins en moins précises au fur et à mesure que le niveau d'arrondissement augmente".
477

Détection de menaces internes par apprentissage automatique non supervisé

Bertrand, Simon 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les menaces internes, ou en anglais Insider Threat, surviennent lorsqu'un individu ayant des accès privilégiés au sein d'une organisation les utilise d'une façon causant du tort à l'organisation. L'employé peut réaliser ces actions dangereuses de façon intentionnelle ou non intentionnelle. Les menaces internes sont très variées ce qui les rend particulièrement complexes à détecter. La confidentialité, l'intégrité et la disponibilité des données sont des préoccupations croissantes pour les organisations d'aujourd'hui. Malgré tout, l'étendue de l'impact des menaces internes est souvent sous-estimée. En effet, même si les menaces internes ne représentent qu'une fraction de toutes les cyberattaques, les dangers en lien avec les menaces internes sont réels. Dans un premier lieu, les attaques internes peuvent causer plus de dommages aux organisations que les attaques traditionnelles. Ceci s'explique en partie par la grande connaissance de l'organisation, ainsi que les accès privilégiés, qu'ont les employés réalisant ces attaques. Ces derniers sont donc en mesure de facilement perpétrer des actions dangereuses sans éveiller de soupçons. De plus, dans les dernières années, plusieurs études suggèrent que la majorité des organisations souffrent de menaces internes chaque année [2]. La détection de menaces internes est ainsi un problème pertinent qui attire beaucoup de chercheurs. Une des stratégies couramment utilisée pour faire la détection de menaces internes est de modéliser les comportements des employés d'une organisation et d'identifier toute divergence significative comme une menace potentielle. Pour ce faire, les journaux d'audit, décrivant tous les évènements réalisés par les membres d'une organisation dans le réseau informatique, sont des sources d'informations privilégiées dans le domaine pour apprendre les comportements typiques des utilisateurs. Dans ce mémoire, nous présentons deux solutions originales de détection de menaces internes utilisant des journaux d'audit et des techniques d'apprentissage automatique non supervisé afin d'apprendre les comportements utilisateur et détecter les comportements malicieux. Les deux solutions présentent des résultats compétitifs par rapport à l'état de l'art, et ce en offrant des caractéristiques qui facilitent leur implémentation dans de vraies organisations. / Insider threats occur when a privileged member of an organization wrong fully uses his access in a way that causes harm to his organization. Those damaging actions can be intentional, as in the case of theft or sabotage, however, un intentional dangerous actions are also to be considered, which adds to the complexity of the insider threat. The insider threat is a broad type of cyber menace, making its detection particularly difficult. For organizations, the confidentiality, integrity, and availability of their information are an increasing concern. Yet many under estimate the magnitude of the insider threats against the maintenance of those ideals. Indeed, even though insider threats are only a fraction of all existing cyber threats, this type of menace presents a real and unique danger for organizations. Firstly, an insider threat can be more damaging to an organization than a traditional cyberattack. This is mainly explicable by the privileged accesses and great domain knowledge that the insider possesses over an outsider. The insider has then a better opportunity to use his access and domain knowledge to carry out efficiently and quietly the attack. Moreover, over the last few years, some reports suggest that most institutions yearly suffer from that kind of cyber threat [2]. Insider threat detection is therefore a relevant problem that attracted many researchers to deploy their efforts in the last decades. One common strategy to detect malicious insiders is by modeling the behaviors of the users and identifying any significant divergence as a potential threat. In that matter, audit data, describing the activity of every member of an organization in the network, are regularly chosen to learn user behaviors using statistical or machine learning models. In the present work, we propose two insider threat detection systems that leverage audit data to learn user behaviors and detect divergent conduct in an unsupervised fashion. Both solutions are competitive with state-of-the-art techniques, and were developed considering many challenges in the field, like being easy to implement in a real-world scenario and considering events dependencies.
478

Développement de lois de comportement générales pour des sols soumis à des chargements de véhicules hors-routes

Cruz Sánchez, Jesús David 12 February 2021 (has links)
Il existe actuellement plusieurs modèles qui permettent de prédire le comportement et les performances d'un véhicule. Le succès ou non de ces modèles donnera le consentement pour le développement et l'intégration d'équipements hors-route utilisés dans la construction, l'agriculture et les véhicules de loisirs. Cependant, la représentation du sol dans ces modèles montre des limitations concernant au comportement de l'interface pneu-sol. Premièrement, la teneur en eau et le compactage sont des facteurs qui influencent le comportement rhéologique du sol et cette résistance à se déformer est à la fois influencée par les différentes formes d'application de chargement le long d'une trajectoire du pneu sur une particule de sol. Par conséquent, ce projet cherche à s'appuyer sur les fondements de la géotechnique routière pour la prédiction des performances des matériaux soumis à des charges cycliques. Des fondamentaux qui permettront de développer des outils pour comprendre, d'un autre point de vue, l'interaction entre les sols et les pneus provenant des véhicules hors-route. / There are currently several models that can be used to predict a vehicle's behaviour and performance. The success or failure of these models will give consent for the development and integration of off-road equipment used in construction, agriculture, and recreational vehicles. However, the soil representation in these models shows limitations in the behaviour of the tyre-ground interface. Firstly, moisture content and compaction are factors that influence the rheological behaviour of the soil and this resistance to deformation is both influenced by different forms of loading application along a tyre's trajectory on a soil particle. Therefore, this project seeks to build on the foundation of the geotechnics of roads for the prediction of the performance of materials subjected to cyclic loading. These fundamentals will enable the development of tools to understand, from another point of view, the nteraction between soils and tires from off-road vehicles.
479

Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climat

Jalbert, Jonathan 23 April 2018 (has links)
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu’elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l’occurrence et l’intensité de ces dernières risquent fort probablement de s’accroître. Par conséquent, le risque d’inondation pourrait vraisemblablement s’intensifier. Les impacts de l’évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d’inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infrajournalières et elles s’étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d’estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l’élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d’estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l’information contenue dans les séries journalières continues pour améliorer l’estimation des quantiles non stationnaires et ce, sans effectuer d’hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l’information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l’occurrence des champs de Markov gaussiens. L’application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d’estimation des quantiles en Amérique du Nord.
480

Modélisation mathématique du pressage à chaud des panneaux MDF : couplage du modèle mécanique avec le modèle couplé de transfert de chaleur et de masse

Kavazović, Zanin 17 April 2018 (has links)
Dans la présente thèse, nous nous intéressons aux phénomènes physiques se déroulant durant le processus de pressage à chaud des panneaux de fibres de bois (MDF). La non-linéarité et la forte interdépendance des phénomènes instationnaires de transfert de chaleur et de masse et du pressage mécanique de l'ébauche de fibres rendent leur modélisation et analyse non triviales. Dans un premier temps, nous avons effectué une étude de sensibilité portant sur le modèle de transfert de chaleur et de masse proposé par Thômen et Humphrey en 2006. Dans cette étude de sensibilité, nous avons déterminé l'impact de la variabilité des propriétés matérielles, des modèles de sorption, des conditions aux limites et de la teneur en humidité initiale sur les variables d'état et les résultats numériques du modèle mathématique. Afin de mieux tenir compte des interactions complexes entre les différents processus physiques, nous avons ensuite proposé un modèle mathématique global tridimensionnel couplé modélisant le processus de pressage à chaud en lot (batch pressing). Le modèle global est constitué de deux entités distinctes, soient le modèle mécanique et le modèle couplé de transfert de chaleur et de masse. Dans cette première phase de développement, la compression de l'ébauche est représentée par un modèle élastique vieillissant que nous avons exprimé en formulation quasi-statique incrémentale. Les variables d'état pour ce modèle sont l'incrément de déplacement et l'incrément de contrainte. Tous les calculs se font sur une géométrie mobile dont la déformation (compression) est une conséquence de la fermeture de la presse. Le développement du profil de densité est ainsi calculé dynamiquement à chaque pas de temps. Quant aux phénomènes de transfert de chaleur et de masse, ils sont modélisés par un système couplé constitué de trois équations de conservation, notamment la conservation de la masse de l'air et de la vapeur ainsi que la conservation de l'énergie. Les équations sont exprimées en fonction de trois variables d'état, soient la température et les pressions partielles de l'air et de la vapeur. Le modèle global est discrétisé par la méthode des éléments finis et les systèmes résultant ont été résolus grâce au logiciel MEF++ développé au GIREF (Groupe interdisciplinaire de recherche en éléments finis, Université Laval). Les simulations numériques ont été menées aussi bien en deux qu'en trois dimensions. Les résultats numériques de température et de pression gazeuse ont été comparés aux mesures prises au laboratoire du CRB (Centre de recherche sur le bois, Université Laval) lors d'un procédé de pressage en lot. Une bonne concordance entre les résultats numériques et expérimentaux a été constatée. Afin d'enrichir le modèle proposé, les futurs développements devraient traiter de la nature viscoélastique et plastique de l'ébauche soumise au pressage à chaud. Il demeure néanmoins clair que la qualité des prédictions produites par des modèles numériques dépendra toujours en grande partie de la disponibilité et de la qualité des valeurs caractérisant les propriétés physiques et matérielles du produit à l'étude. Afin de combler de nombreuses lacunes à ce chapitre, nous ne pouvons qu'encourager les recherches menant à une meilleure connaissance de ces propriétés.

Page generated in 0.113 seconds