• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Impacts du biais de négligence des corrélations sur la qualité d'une décision de portefeuille : études auprès d'un groupe de planificateurs financiers agréés

Amiot, Gabriel 18 February 2021 (has links)
La présente recherche s’intéresse à la négligence des corrélations en contexte d’investissement. À l’aide d’un questionnaire réalisé auprès de 88 planificateurs financiers agréés (Pl. Fin.) en collaboration avec l’Institut québécois de la planification financière (IQPF), nos résultats suggèrent que le décideur moyen utilise plutôt le profil de tolérance au risque d’un client fictif afin d’orienter sa prise de décision (motif principal préféré par 60% des répondants). Entre deux fonds d’investissement à rendements égaux, nous constatons une tendance modale de l’individu à conseiller le fond présentant la plus petite variance individuelle indépendamment de sa corrélation. Non seulement le sujet représentatif ne favorise pas une mesure du risque agrégée basée sur le portefeuille global de son client (i.e., variance de portefeuille), mais celui-ci ne semble pas non plus concevoir l’existence d’une alternative moins risquée dans un contexte systémique. À partir de six formats de présentation différents dans un design inter-sujet, nos résultats suggèrent également qu’une surcharge d’information nuit à l’attention limitée du participant et exacerbe sa propension à intégrer l’information telle que vue et présentée (heuristique de valeur nominale). / This research seeks to highlight the underlying mechanisms that might cause correlation neglect among a group of financial experts in an investment context. Via an experimental questionnaire administered to 88 financial planners, we ask what would be their advice to twelve fictitious clients who wish to invest in a new fund according to a fixed set of information (six frames, between-subjects design). The planner had to consider the previously owned fund “to give an optimal advice that maximizes the portfolio diversification”. Between two alternative funds to invest with equal average returns, our results suggest that the representative expert emphasizes mainly the client’s risk tolerance profile to make a selection (first motive designated by 60% of subjects). We thus identify a pattern from which the modal subject recommend the low (high) individual variance fund with low (high) risk tolerance profile of a client. This observed behaviour not only neglects to account for the full portfolio variance, which depends crucially on the correlation between the funds, but also suggests a difficulty to conceptualize the impacts of aggregating two or more assets in the same system. We suggest that our results may be explained by a “face-value” heuristic hypothesis that posits that the subject neglects to consider the underlying generating process of the final outputs showed display and that this is exacerbated by an information overload when present.
462

Dynamique des flux commerciaux dans le secteur des oeufs de table et analyse des effets de la libéralisation des échanges

Simon, Rodrigue 18 April 2018 (has links)
La libéralisation dans le secteur agro-alimentaire figure aujourd’hui parmi les grandes préoccupations de l’OMC. Les discussions du cycle de Doha ont abouti en Décembre 2008 à une proposition de texte sur la procédure de la libéralisation des tarifs et des différentes formes de soutien dans le secteur agricole. Jusqu’à ce jour, les études réalisées dans le secteur agricole pour évaluer l’impact de ces propositions se sont intéressées principalement aux secteurs de la viande et du lait. La présente étude s’applique au secteur des œufs de consommation et vise à analyser l’effet de différents scénarios de libéralisation. La période d’étude s’étend de 2000 à 2008 et prend en compte les trois grandes catégories de produits d’œufs à savoir les œufs en coquille, les œufs transformés et les produits dérivés des œufs. Pour ce faire, nous utilisons un modèle de gravité afin d’estimer les paramètres structuraux des flux commerciaux dans le secteur des œufs. Ces paramètres sont ensuite utilisés pour quantifier l’impact des différents scénarios de libéralisation sur la probabilité d’importer ainsi que sur l’intensité du commerce. Le modèle de panel autorégressif a été retenu pour effectuer l’analyse des différentes variables. Mots clés: œufs de table, libéralisation de l’échange, cycle de Doha, modèle de gravité, panel autorégressif.
463

Élaboration d'un modèle de trafic à partir de données massives de trajectoires automobiles en assurance

Blais, Philippe 01 June 2021 (has links)
En assurance automobile, la prédiction du risque est un enjeu majeur. Pour faire les meilleures prédictions possibles, il est important d'utiliser les bonnes informations. Dans les récentes années, un nouveau modèle d'assurance a vu le jour, le Usage-Based-Insurance (UBI), qui a permis la mesure de nouvelles variables comme les freinages ou les accélérations, appelées évènements. Par ailleurs, l'arrivée du UBI a amené l'industrie à s'intéresser davantage à la compréhension des comportements routiers, ce qui s'est traduit par le besoin de contextualiser ces évènements pour arriver à mieux comprendre leurs causes. Le but de cette recherche est de répondre à ce besoin de contextualisation en utilisant le trafic. L'objectif du projet est de modéliser le trafic à partir des données massives de trajectoires automobiles générées via le UBI. Deux méthodes de modélisation sont présentées. La première utilise une méthode de clustering pour détecter la congestion à partir de distributions de vitesses moyennes. La deuxième s'appuie plutôt sur une méthode de calcul de temps de parcours au niveau du segment routier. Les résultats de cette recherche confirment qu'il est possible d'utiliser les données d'assurance pour modéliser le trafic.
464

Modélisation, commande et observation du séchage par lit fluidisé de granules pharmaceutiques

Gagnon, Francis 06 July 2022 (has links)
La fabrication de comprimés pharmaceutiques par granulation humide a typiquement recours aux lits fluidisés pour le séchage des particules. Encouragée par les agences réglementaires, l'industrie a entamé une migration vers la production continue et automatisée, mais les procédés discontinus (batch) opérés sans rétroaction, excepté un contrôle qualité en fin de cycle, demeurent largement majoritaires dans le secteur. Dans le cas des séchoirs à lit fluidisé, cette approche occasionne plusieurs complications comme le sous-séchage, le surséchage et la surchauffe des granules thermosensibles, qui peuvent conduire au rejet du lot. Toutefois, la commande avancée et la production en continu peuvent réduire les problèmes d'opération. Ce projet de recherche concerne donc l'automatisation du séchage par lit fluidisé ou, plus spécifiquement, sa modélisation, sa commande et son observation. La conception et la comparaison de diverses stratégies d'estimation et de contrôle nécessitent d'abord un modèle mathématique représentatif du procédé. Pour y parvenir, une identification « boite grise » estime les paramètres empiriques d'une description phénoménologique à deux phases du lit fluidisé à partir de données expérimentales et un second lot de données valide les simulations qui en résultent. Cet ouvrage évalue ensuite la commande prédictive linéaire, non linéaire et économique sur le simulateur calibré. L'étude explore aussi les filtres de Kalman standard et non parfumé, ainsi que l'estimateur à fenêtre glissante, comme capteur virtuel de teneur en eau des particules, le principal indicateur de qualité au séchage. La première partie de cette thèse se concentre sur les séchoirs verticaux discontinus, et la deuxième, sur un nouveau prototype de réacteur horizontal entièrement continu. Les résultats de cette recherche confirment les avantages indéniables de ces technologies, soit un contrôle serré de la qualité du produit, et une diminution des coûts et de l'empreinte environnementale des opérations. / Manufacturing pharmaceutical tablets through wet granulation typically relies on fluidized bed drying for the particles. Advocated by regulatory agencies, the industry initiated a paradigm shift towards fully continuous and automated production, but batch processes operated without feedback, except a quality control at the end of the cycle, still prevail in the sector. For the case of fluidized bed dryers, this approach results in several issues like under drying, over drying, overheating of thermosensitive granules, that can lead to the rejection of the batch. However, advanced control and continuous processing can reduce the operational hurdles. This research project investigates the automation of fluidized bed drying or, more specifically, its modeling, control and observation. The design and comparison of various estimation and feedback strategies first require a representative mathematical model of the process. For this, a grey-box identification estimates the empirical parameters of a two-phase fluidized bed description from experimental data, and a second dataset validates the resulting simulations. This work then investigates linear, nonlinear, and economic model predictive control on the calibrated simulator. The study also explores the standard and unscented Kalman filter, and the moving-horizon estimator, as soft sensors for the particle moisture content, a critical quality attribute at drying. The first part of this thesis focuses on vertical batch dryers, and the second one, on a new prototype of a fully continuous horizontal reactor. The results of this research confirm the undeniable advantages of those technologies, namely a tight control of the product quality, and reductions in the costs and the environmental footprint of the operations.
465

Trois essais en dynamique financière

Mouelhi, Chaouki 16 April 2018 (has links)
Dans des environnements concurrentiels de plus en plus dynamiques, le rapprochement entre l'analyse financière et l'analyse stratégique s'avère indispensable. Ceci est d'autant plus vrai que les différents aspects de la dynamique concurrentielle de la firme (la stratégie concurrentielle, le positionnement stratégique, les avantages concurrentiels durables) ont un impact sur la valeur de la firme. Le premier essai est une investigation sur l'utilité de la durée de l'avantage concurrentiel de la firme dans la sélection de portefeuilles et la prédictibilité des rendements. Le cadre théorique de notre problématique de recherche s'appuie sur les trois concepts suivants : (1) l'intégration des anticipations conjuguées des investisseurs quant aux perspectives futures des firmes dans le cadre de leur équilibre économique concurrentiel, (2) l'hypothèse de la circulation bidirectionnelles de l'information et (3) la pertinence de l'avantage concurrentiel durable de la firme comme un indicateur de sa performance future. La recherche empirique de cet essai consiste à quantifier, dans le cadre de l'équilibre économique concurrentiel, l'avantage concurrentiel durable de la firme en mesurant sa durée implicite telle qu'exprimée par le marché (MICAP: Market Implied Competitive Advantage Period). Étant donné que sur le plan pratique, la standardisation de la MICAP n'est pas faisable, l'analyse s'effectue sur la variation annuelle de cette variable, à savoir la [delta]MICAP. Les résultats, de la comparaison de trois stratégies d'investissement, de la méthodologie de rangs, des coefficients de corrélation, des études bidimensionnelles et des régressions sur données de panel montrent que la [delta]MICAP présente un pouvoir informatif et prédictif important quant à la création de valeur boursière, même en présence des variables de contrôle. Dans le même cadre que celui de l'interaction entre la finance et la stratégie, le second essai s'intéresse à l'analyse de la relation entre le coût du capital et la dynamique concullentielle de la firme. L'analyse consiste à estimer le coût des fonds propres et par la suite le coût du capital par des modèles ex ante qui tiennent compte de la dynamique concurrentielle de la finne via son équilibre économique concurrentiel. L'originalité de ces modèles est d'intégrer les anticipations conjuguées des investisseurs qui ont réellement une influence sur la valeur des titres, et celle des dirigeants dans le cadre de la dynamique concurrentielle qui conduit à un équilibre économique. Afin d'établir les assisses théoriques des différentes hypothèses de recherche nous développons quatre propositions. L' investigation empirique consiste à comparer les résultats des coûts du capital issus d'un modèle statique qu'est le CAPM à ceux issus de trois modèles ex ante qui tiennent compte de la dynamique concurrentielle de la firme, à savoir le DRIM (Discounted Residual Income Model), le modèle de Pointon et EI-Masry (2007) et le MÉDDAF (Modèle d'Équilibre Dynamique Des Actifs Financiers) de Saint-Pierre (2002). Les résultats des différents tests (tests de la différence, tests de Cox et les tests J) montrent la pertinence de l'estimation du coût du capital par les modèles qui tiennent compte de la dynamique de la firme. L'analyse de robustesse valide empiriquement la relation entre le coût du capital de la firme et sa dynamique concurrentielle. Le troisième essai utilise les récents développements de l'économétrie des panels dynamiques non stationnaires afin de réexaminer la relation entre les mesures de performance externes et internes de la firme. L'analyse consiste à tester l'existence d'une relation dynamique d'équilibre à long terme, c'est-à-dire une relation de cointégration, entre la valeur marchande ajoutée (VMA) et cinq mesures de performance internes, à savoir le bénéfice par action (BPA), le cash-flow d'exploitation (CFE), le bénéfice résiduel (BR), le rendement sur les fonds propres (ROE) et la valeur économique ajoutée (VÉA).Dans un tel cadre, l'existence des relations de cointégration permettent d'apprécier le pouvoir explicatif et prédictif des mesures de performance internes quant à la performance au marché de la firme. Par ailleurs, ce réexamen tient compte de principaux facteurs contextuels de la firme, à savoir la taille et le cycle de vie. En effet, l'analyse de sous-échantillons plus homogènes permet de concilier les considérations d'ordre économétrique avec celles d'ordre théorique. Les résultats du test de stationnarité de lm, Pesaran et Shin (2003) et le test de cointégration de Pedroni (2004) appliqués sur un échantillon de 420 firmes américaines sur la période 1990-2004 montrent l'existence d'une relation dynamique d'équilibre à long terme entre la VMA et les mesures de performance internes à l'exception du ROE. En outre, indépendamment du facteur contextuel considéré, les résultats indiquent que le modèle (VMA-VÉA) affichent toujours la relation de cointégration la plus puissante par rapport aux autres modèles. Enfin, une analyse de robustesse via l'estimation des modèles à correction d'erreurs (ECM) et l'analyse des relations de corrélation versus les relations de cointégration supportent les résultats précédents.
466

Kinematic analysis of Five-DOF (3T2R) parallel mechanisms with identical limb structures

Tale Masouleh, Mehdi 17 April 2018 (has links)
Cette thèse de doctorat s'adresse tout particulièrement à deux groupes de personnes travaillant sur la cinématique des mécanismes parallèles : les ingénieurs mécaniciens et les géométriciens. À l'origine, ce travail devait être basé uniquement sur des concepts et des outils d'ingénierie. Cependant, à mi-parcours, il a été pertinent d'utiliser un aspect pratique de l'algèbre géométrique et, désormais, cette thèse se veut un judicieux mélange de ces deux approches. En effet, contrairement à ce qu'on trouve généralement dans la littérature, le travail présenté ici ne favorise pas une méthode par rapport à l'autre, mais vise plutôt à utiliser les synergies possibles entre les méthodes de l'ingénierie mécanique et de l'algèbre géométrique. En gardant comme étude de cas l'analyse cinématique de mécanismes parallèles symétriques à cinq degrés de liberté, trois translations et deux rotations, cette thèse peut être considérée comme une ligne directrice de l'application de l'algèbre géométrique dans l'analyse cinématique de mécanismes parallèles. Le choix de ce cas s'est avéré heureux puisque les propriétés cinématiques de ce type d'architecture se sont révélées tout à fait remarquables. Dans cette optique, les chapitres 2 à 4 sont consacrés à l'adaptation des outils de l'algèbre géométrique à l'analyse cinématique des mécanismes parallèles. Ces chapitres gardent toujours en toile de fond l'étude des mécanismes parallèles symétriques à cinq degrés de liberté. La contribution majeure du chapitre 2 est le développement d'une approche systématique pour la modélisation cinématique des mécanismes parallèles symétriques qui est appliquée par la suite dans le chapitre 3 aux mécanismes parallèles iii symétriques à cinq degrés de liberté. Cette application donne des résultats étonnants en ce qui a trait au nombre de solutions du problème géométrique direct : 1680 solutions finies et 208 solutions réelles pour une architecture donnée. Toutes ces solutions sont en termes de paramètres de Study, un espace projectif à sept dimensions. Au chapitre 4, la transformation entre cet espace à sept dimensions et celui à trois dimensions est introduite afin d'obtenir les coordonnées cartésiennes et les angles correspondants pour chaque solution. En outre, les propriétés cinématiques de premier ordre sont également étudiées dans ce chapitre afin d'avoir une meilleure compréhension du mécanisme. Le lecteur pourra ensuite suivre dans les chapitres 5 et 6 une étude cinématique basée sur l'espace à trois dimensions. La préoccupation principale du chapitre 5 est l'analyse constructive de l'espace atteignable par une approche géométrique. Un algorithme proposé dans la littérature pour trouver l'espace atteignable pour une orientation constante d'un mécanisme parallèle à six degrés de liberté est alors étendu aux mécanismes parallèles symétriques à cinq degrés de liberté. Le modèle CAO de l'espace atteignable est également présenté. Les résultats de ce chapitre montrent que l'espace atteignable des mécanismes parallèles symétriques à cinq degrés de liberté peut posséder une petite partie isolée. Le chapitre 6 complète quant à lui la réflexion engagée au chapitre 3 sur le problème géométrique direct. Ce problème est ainsi étudié pour des modèles simplifiés qui ont des solutions explicites ou une expression monovariable. Pour une conception quasi-générale, une expression monovariable de degré 220 est obtenue. Dans ce chapitre, nous dévions un peu de l'espace à trois dimensions pour celui à sept dimensions afin de valider et d'affiner les résultats obtenus, une approche qui peut être appliquée à d'autres cas. Le chapitre 7 est pour sa part consacré à l'analyse des singularités des mécanismes parallèles symétriques à cinq degrés de liberté qui repose sur la géométrie grassmanni-enne. Ce chapitre couvre largement l'étude des configurations singulières des mécanismes parallèles symétriques à cinq degrés de liberté pour les architectures simplifiées proposées dans le chapitre 6. La contribution principale de ce chapitre est l'application de la géométrie grassmannienne aux mécanismes parallèles à mobilité réduite pour lesquels une ligne à l'infini est parmi les lignes de Plùcker. Enfin, le chapitre 8 conclut cette thèse en résumant les résultats obtenus dans les chapitres précédents. Il décrit également plusieurs travaux en cours et propose des sujets de travaux futurs pour une nouvelle orientation de la recherche.
467

A Machine Learning Approach for the Smart Charging of Electric Vehicles

Lopez, Karol Lina 07 May 2019 (has links)
Avec l’adoption croissante des véhicules électriques, il y a un intérêt pour utiliser des tarifs dynamiques dont le prix dépend de la demande actuelle, pour encourager les utilisateurs à recharger leurs véhicules en période de faible demande évitant les pics d’électricité pouvant dépasser la capacité installée. Le problème que devaient affronter les utilisateurs de véhicules électriques est qu’ils doivent s’assurer que l’énergie électrique présente dans les batteries est suffisante pour les déplacements et que les périodes de recharge correspondent à des périodes où le prix de l’électricité est bas. La plupart des approches actuelles de planification de recharge supposent une connaissance parfaite des futurs prix de l’électricité et de l’utilisation du véhicule, ce qui nuit à leur applicabilité dans la pratique. Cette thèse considère la modélisation de la recharge intelligente des véhicules électriques pour déterminer, lors des sessions de connexion, les moments où le véhicule doit se recharger afin de minimiser le coût payé pour l’énergie de ses déplacements. La thèse comporte quatre principales contributions: 1) Modèle de recharge optimale des véhicules électriques pour générer une série de décisions en utilisant la connaissance a priori du prix de l’électricité et de l’énergie utilisée, en utilisant la programmation dynamique comme méthode d’optimisation. 2) Création d’un modèle de système d’information incluant des variables connexes au modèle de recharge des véhicules électriques dans un cadre guidé par des données. 3) Méthode de sélection des données pertinentes utilisant la stratification de données pouvant réduire significativement le temps requis pour entraîner les modèles de prévision avec des résultats proches de ceux obtenus en utilisant l’ensemble de données complet. 4) Modèle de classification en ligne qui permet de déterminer s’il faut charger ou non le véhicule à l’aide de modèles d’apprentissage automatique qui peuvent générer, en temps réel, une décision de recharge quasi-optimale sans tenir compte d’une connaissance de l’information future. Nous démontrons comment la combinaison d’une méthode d’optimisation hors ligne, telle que la programmation dynamique, avec des modèles d’apprentissage automatique et un système d’information adéquat peut fournir une solution très proche de l’optimum global, sans perte d’applicabilité dans le monde réel. De plus, la polyvalence de l’approche proposée permet d’envisager l’intégration d’un plus grand nombre de variables à l’entrée du modèle, ainsi que d’autres actions comme par exemple fournir d’énergie au réseau électrique pour aider à réduire les pics de demande ce qui pourrait être utile dans un contexte de vehicle-to-grid (V2G). / With the increasing adoption of electric vehicles, there is an interest to use dynamic tariffs where the price depends on the current demand, encouraging users to charge their vehicles in periods of low demand, avoiding electricity peaks that may exceed the installed capacity. The issue an electric vehicle user must tackle is that it should ensure that its electric power is sufficient for its trips and that the recharge periods correspond to periods where the price of electricity is low. Most current charge scheduling approaches assume a perfect knowledge of the future prices and car usage, which hinders their applicability in practice. This thesis considers the modelling of the intelligent recharge of electric vehicles to determine, during the connection sessions, the times when the vehicle may be charged in order to minimize the overall energy cost. The thesis has four main contributions: 1) Optimum electric vehicle recharge model to generate a series of decisions using full knowledge of the price of electricity and energy used using dynamic programming as a method of optimization. 2) Creation of an information system model which includes variables relevant to the recharging model of electric vehicles in a framework data-driven. 3) Method of selecting relevant data using the stratification by clusters which can significantly decrease the time required to train forecasting models with results close to those obtained using the complete dataset. 4) Classification model which allows the determination of whether or not to charge the vehicle using machine learning models that can generate, in real time, a near-optimal recharge decision without considering perfect knowledge of the future information. We demonstrated how combining an offline optimization method, such as dynamic programming with machine learning models and a coherent information system can provide a solution very close to the global optimum without loss of applicability in real-world. Moreover, the versatility of the proposed approach allows the consideration of the integration of a larger set of variables at the input of the model, as well as other actions such as for example supplying energy to the network to further help reducing demand peaks which could be useful in a vehicle-to-grid context (V2G).
468

Modélisation hydrologique probabiliste par réseaux de neurones : calibration de la distribution prédictive

Boucher, Marie-Amélie 12 April 2018 (has links)
Depuis quelques années, les prévisions probabilistes suscitent un intérêt croissant parmi les communautés météorologique et hydrologique. Cet intérêt découle en majeure partie du fait que ce type de prévision permet l'évaluation de l'incertitude associée aux prévisions. Les prévisions d'ensemble peuvent être construites à partir de réseaux de neurones. Cette méthode est avantageuse pour sa simplicité et pour sa rapidité d'exécution. L'évaluation de l'incertitude associée aux prévisions par réseaux de neurones ne peut s'effectuer analytiquement puisque l'expression mathématique du modèle est inconnue. C'est pourquoi des méthodes comme celle du rééchantillonnage avec remise (bootstrap) sont parfois employées pour déterminer l'incertitude associée à la prévision déterministe issue d'un réseau de neurones. Cette technique permet d'obtenir un ensemble de prévisions pour chaque pas de temps. Une loi de probabilité peut alors être ajustée aux prévisions d'ensemble afin d'obtenir une distribution prédictive. Cependant, à notre connaissance, la fiabilité de cette prévision probabiliste n'a pas été démontrée. La calibration de cette distribution ainsi que les mesures à prendre pour la corriger ne semble pas avoir été examinée à ce jour dans un contexte hydrologique. Ce mémoire présente différentes méthodes graphiques et numériques pour vérifier la qualité des prévisions probabilistes hydrologiques issues de réseaux de neurones. Ces méthodes ne sont pas uniquement applicables aux réseaux de neurones et pourraient être utilisées avec n'importe quel type de prévisions probabilistes de variables continues. La calibration de la distribution prédictive sera évaluée et corrigée et l'influence de la technique du rééchantillonnage avec remise sur les prévisions d'ensemble sera investiguée. / Since the last few years, there has been an increasing interest for probabilistic forecasting in the meteorological and hydrological community. This enthusiasm arises in a large extent from the possibility of uncertainty assessment that probabilistic forecasting has brought. Hydrological ensemble forecasting may be constructed using neural networks, which is a very useful tool regarding its simplicity and execution speed. Since the mathematical description the neural model remains unknown by the user, it is not possible to evaluate the forecast's uncertainty in a strict mathematical way. Some methods like the bootstrap can be used to overcome this difficulty. The bootstrap generates an ensemble of forecasts at each time step. Then, the ensemble can be used to fit a law of probability in order to obtain a predictive distribution. However, to the extent of our knowledge, the reliability of this probabilistic forecast has never been investigated. In addition, the calibration of this distribution as well as methods to correct it does not appear to have been investigated up to day in a hydrological context. This document presents graphical and numerical methods used to assess the quality of probabilistic hydrological forecasts obtained from neural networks. The methods employed here apply to any type of probabilistic forecasts of continuous variable and are not restricted to neural networks forecasting. The calibration of the predictive distribution will be evaluated and corrected, and the impact of the bootstrap will be investigated.
469

Modélisation de la découpe des tôles ferromagnétiques : corrélation entre l'état mécanique et les propriétés magnétiques

Ben Ismail, Anis 12 April 2018 (has links)
La corrélation entre l’évolution du matériau lors de la découpe des tôles minces et la dégradation des propriétés magnétiques constitue un point clé dans la conception des actionneurs électriques. De plus, la mesure des propriétés magnétiques constitue actuellement un outil de contrôle non destructif en essor dans l’industrie. Dans le cadre d’un projet sur ce thème, notre travail porte sur le développement d’un outil prédictif pour établir une corrélation entre le procédé de mise en forme qui est le découpage, l’état du matériau qui en résulte et les propriétés magnétiques de ce dernier. Cette étude s’inscrit dans le cadre d’une collaboration entre l’Université de Technologie de Compiègne, l’Université Laval (Québec, Canada) et le CETIM et elle a été décomposée en deux parties. La première partie a été consacrée à l’analyse et à la modélisation de la découpe. En ce qui concerne les aspects expérimentaux des travaux, des essais de tractions uniaxiale à différentes vitesses de déformation ont permis de déterminer le comportement mécanique du matériau et sa sensibilité à la vitesse. Par ailleurs, des essais de poinonnage et de cisaillage ont été effectués afin d’analyser l’influence de différentes paramètres du procédé tels que le jeu outil-matrice et la cadence (vitesse de découpe / déformation). En ce qui concerne les aspects numériques, la modélisation par éléments finis à nécessité l’utilisation de techniques et approches appropriées pour traiter les multiples non linéarités présentes dans ce genre de problèmes. Dans la deuxième partie nous nous sommes intéressés à la corrélation entre l’état mécanique du matériau et ses propriétés magnétique suite a un effet de poinonnage. Pour accéder à des quantités caractéristiques de l’état mécanique du matériau au voisinage du bord découpé, des essais de nanoindentation ont été combiné à l’identification inverse. Par ailleurs, des mesures magnétiques menées sur des éprouvettes de traction à différents taux de déformation ont permis d’établir une courbe d’évolution de la perméabilité magnétique en fonction de la déformation plastique. La combinaison de ces résultats nous a permis d’établir une corrélation entre l’état mécanique du matériau, notamment le taux de déformation plastique, et la dégradation de ses propriétés magnétiques (chute de perméabilité) au voisinage du bord découpé. / The correlation between material evolution when dealing with blanking process and the degradation of the magnetic properties constitutes a key point in the design of the electric machines. Moreover, the measurement of the magnetic properties currently constitutes a tool for non destructive testing in rise in industry. Within the framework of a project on this topic, our work concerns the development of a predictive tool to establish a correlation between the blanking process, the state of the material which results from it and the magnetic properties of this last. This study lies within the scope of a collaboration between the University of Technology of Compiegne, Laval University (Quebec, Canada) and CETIM and it were broken up into two parts. The first part was devoted to the analysis and modeling of blanking process. Concerning the experimental aspects of work, uniaxial tensile tests at various strain rates made it possible to reach the mechanical behaviour of material and its sensitivity at the velocity. In addition, blanking tests were carried out in order to analyze the influence of different parameters from the process such as the clearance punch-die and velocity (blanking velocity / strain rate). Concerning the numerical aspects, finite elements modeling need the use of techniques and approaches suitable to treat the multiples non-linearity’s present in this kind of problems. In the second part we were interested in the correlation between the mechanical state of material and its magnetic properties following a punching effect. To reach quantities characteristic of the mechanical state of material in the vicinity of the cut edge, nanoindentation tests were combined with technique of inverse identification. In addition, magnetic measurements carried out on tensile specimen with various strain rates allowed to establish the evolution curve of permeability according to the plastic strain. The combination of these results enabled us to establish a correlation between the mechanical state of material, in particular the plastic strain, and the degradation of its magnetic properties (falls of permeability) in the vicinity of the cut edge.
470

Modélisation mathématique du pressage à chaud des panneaux MDF : couplage du modèle mécanique avec le modèle couplé de transfert de chaleur et de masse

Kavazović, Zanin 17 April 2018 (has links)
Dans la présente thèse, nous nous intéressons aux phénomènes physiques se déroulant durant le processus de pressage à chaud des panneaux de fibres de bois (MDF). La non-linéarité et la forte interdépendance des phénomènes instationnaires de transfert de chaleur et de masse et du pressage mécanique de l'ébauche de fibres rendent leur modélisation et analyse non triviales. Dans un premier temps, nous avons effectué une étude de sensibilité portant sur le modèle de transfert de chaleur et de masse proposé par Thômen et Humphrey en 2006. Dans cette étude de sensibilité, nous avons déterminé l'impact de la variabilité des propriétés matérielles, des modèles de sorption, des conditions aux limites et de la teneur en humidité initiale sur les variables d'état et les résultats numériques du modèle mathématique. Afin de mieux tenir compte des interactions complexes entre les différents processus physiques, nous avons ensuite proposé un modèle mathématique global tridimensionnel couplé modélisant le processus de pressage à chaud en lot (batch pressing). Le modèle global est constitué de deux entités distinctes, soient le modèle mécanique et le modèle couplé de transfert de chaleur et de masse. Dans cette première phase de développement, la compression de l'ébauche est représentée par un modèle élastique vieillissant que nous avons exprimé en formulation quasi-statique incrémentale. Les variables d'état pour ce modèle sont l'incrément de déplacement et l'incrément de contrainte. Tous les calculs se font sur une géométrie mobile dont la déformation (compression) est une conséquence de la fermeture de la presse. Le développement du profil de densité est ainsi calculé dynamiquement à chaque pas de temps. Quant aux phénomènes de transfert de chaleur et de masse, ils sont modélisés par un système couplé constitué de trois équations de conservation, notamment la conservation de la masse de l'air et de la vapeur ainsi que la conservation de l'énergie. Les équations sont exprimées en fonction de trois variables d'état, soient la température et les pressions partielles de l'air et de la vapeur. Le modèle global est discrétisé par la méthode des éléments finis et les systèmes résultant ont été résolus grâce au logiciel MEF++ développé au GIREF (Groupe interdisciplinaire de recherche en éléments finis, Université Laval). Les simulations numériques ont été menées aussi bien en deux qu'en trois dimensions. Les résultats numériques de température et de pression gazeuse ont été comparés aux mesures prises au laboratoire du CRB (Centre de recherche sur le bois, Université Laval) lors d'un procédé de pressage en lot. Une bonne concordance entre les résultats numériques et expérimentaux a été constatée. Afin d'enrichir le modèle proposé, les futurs développements devraient traiter de la nature viscoélastique et plastique de l'ébauche soumise au pressage à chaud. Il demeure néanmoins clair que la qualité des prédictions produites par des modèles numériques dépendra toujours en grande partie de la disponibilité et de la qualité des valeurs caractérisant les propriétés physiques et matérielles du produit à l'étude. Afin de combler de nombreuses lacunes à ce chapitre, nous ne pouvons qu'encourager les recherches menant à une meilleure connaissance de ces propriétés.

Page generated in 0.2278 seconds