Spelling suggestions: "subject:"para""
141 |
Amélioration du filtrage de la contrainte WeightedCircuit pour le problème du commis voyageurBoudreault, Raphaël 27 January 2024 (has links)
Le problème du commis voyageur, aussi connu sous le nom de problème du voyageur de commerce ou traveling salesman problem (TSP) en anglais, est un problème classique de l'optimisation combinatoire et de la recherche opérationnelle. Il consiste, étant donné un certain nombre de villes et la distance entre chacune d'entre elles, à trouver un chemin de longueur minimale visitant chaque ville une seule fois et retournant à son point de départ. Le problème apparaît naturellement dans une multitude de problématiques de transport et industrielles, en plus de trouver des applications dans un important nombre de domaines en apparence non liés, allant de la logistique au séquençage de l'ADN. Toutefois, sa complexité informatique le rend difficile à résoudre. Le solveur Concorde permet actuellement de résoudre de manière exacte des instances du TSP comportant des milliers de villes en seulement quelques secondes. Cependant, une limitation importante est qu'il ne permet pas de considérer des contraintes additionnelles telles que des fenêtres de temps pour chaque visite. La programmation par contraintes est une approche permettant facilement d'ajouter ces contraintes au problème. Dans ce mémoire, nous revisitons l'approche CP-based Lagrangian relaxation (CP-LR) utilisée notamment pour les algorithmes de filtrage de l'état de l'art de la contrainte WeightedCircuit encodant le TSP en programmation par contraintes. Nous proposons deux nouveaux algorithmes basés sur notre approche CP-LR améliorée. Ceux-ci permettent d'obtenir un gain significatif sur le temps de résolution du TSP comparativement à l'implémentation de l'état de l'art. / The traveling salesman problem (TSP) is a classic problem in combinatorial optimization and operations research. It consists, given a number of cities and the distance between each of them, to find a path of minimal distance visiting each city exactly once and returning to its starting point. The problem naturally appears in various transportation and industrial problems, in addition to having applications in several domains apparently unrelated, going from logistics to DNA sequencing. Its computational complexity makes it nonetheless difficult to solve. The Concorde solver currently allows to exactly solve TSP instances having thousands of cities in only a few seconds. However, an important limitation is that it cannot consider additional constraints such as time windows for each visit. Constraint programming is an approach that easily allows these constraints to be added to the problem. In this Master's thesis, we revisit the CP-based Lagrangian relaxation (CP-LR) approach used in particular for the state-of-the-art filtering algorithms of the WeightedCircuit constraint that encodes the TSP in constraint programming. We propose two new algorithms based on our improved CP-LR approach. These allow to obtain a significant gain on the TSP solving time when compared to the state-of-the-art implementation.
|
142 |
Algorithmes de vérification et de filtrage pour la contrainte Cumulative et ses variantesOuellet, Yanick 22 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Les problèmes d'ordonnancement, où il faut planifier des tâches sur une ligne du temps en respectant différentes contraintes, sont présents dans une grande variété d'industries. Cela va de la conception d'horaire pour un hôpital jusqu'à la planification de la production en usine. Malheureusement, la plupart de ces problèmes sont NP-difficiles. La programmation par contraintes s'est montrée très efficace pour résoudre ces problèmes. Dans cette thèse, nous présenterons des algorithmes de vérification et de filtrage pour trois contraintes d'ordonnancement. La première, la contrainte $\textup{Cumulative}$ limite l'utilisation d'une ressource à une capacité maximale. Pour cette contrainte, nous améliorons la complexité d'algorithmes de vérification et de filtrage existants. La deuxième contrainte, la $\textup{SoftCumulative}$, est une variation de la $\textup{Cumulative}$ où il est possible de dépasser la capacité maximale, moyennant une pénalité. La troisième, la contrainte $\textup{MinCumulative}$, force une utilisation minimale, plutôt que maximale, de la ressource. Pour ces deux dernières contraintes, nous introduisons de nouveaux algorithmes qui sont inspirés par les algorithmes classiques de la contrainte $\textup{Cumulative}$. / Scheduling problems occur in various industries. Examples of these problems include, among others, nurse rostering, production planning in a factory, and airline crew scheduling. In such problems, one needs to schedule tasks on a time line while satisfying several constraints. Unfortunately, most of these problems are NP-Hard. Constraint programming has been shown to be an effective technique to solve NP-hard scheduling problems. In this thesis, we introduce checker and filtering algorithms for three scheduling constraints. $\textup{The Cumulative}$ constraint limits the resource consumption to a maximal capacity. For that constraint, we present faster checker and filtering algorithms. $\textup{The SoftCumulative}$ constraint is a variant of the $\textup{Cumulative}$ where it is possible to exceed the capacity, but doing so incurs a penalty. The $\textup{MinCumulative}$ constraint enforces a minimum resource usage, rather than limiting it. For those two constraints, we introduce new filtering algorithms that are inspired by classical algorithms for the $\textup{Cumulative} constraint.
|
143 |
Intégration et applicabilité des méthodes d'apprentissage supervisé pour la conception de systèmes optiques grand-angleBuquet, Julie 05 August 2024 (has links)
Alors que la conception optique doit se réinventer avec la démocratisation de systèmes optiques utilisés pour la vision machine, elle reste basée sur la résolution de problème non-linéaire via l'optimisation de fonction de coût. Grâce à l'avancée des recherches en apprentissage automatique, des travaux se penchent sur l'utilisation des pratiques basées sur les données pour complémenter les travaux du concepteur optique. D'une part, l'apparition de méthodes basées sur les données permet d'identifier les caractéristiques cruciales à la qualité d'un design et de réutiliser ces données dans d'autres travaux sans avoir à recommencer de zéro. D'autre part, l'exploration de l'optimisation conjointe de réseaux de neurones profonds et du design optique a permis de raffiner les critères de qualité d'image pour la vision machine. Cette thèse étudie l'applicabilité de ces méthodes pour des systèmes grand angle. Récemment démocratisés en devenant moins encombrants, ils présentent un intérêt certain en vision par ordinateur grâce à leur capacité à imager un environnement complet en une seule image. Leur conception reste cependant un défi de taille à ce jour et la distorsion en résultant, en plus de pouvoir constituer une gêne visuelle, constitue un véritable défi en apprentissage automatique. La modification des proportions sur l'image induite par celle-ci vient, de manière inhérente, altérer les performances des algorithmes de vision machine, en particulier les réseaux de neurones convolutifs. Ces recherches explorent notamment l'impact et l'optimisation de la distorsion pour améliorer les performances des réseaux de neurones pour l'estimation de profondeur à une seule image. Elles impliquent également des travaux complémentaires sur la prédiction de critères de qualité d'image comme le *RMS spot size* à partir du profil de distorsion ou encore la contribution des autres aberrations présentes dans ce type de design sur la précision des modèles de simulation. Ces recherches ont pour objectif de construire des méthodes d'optimisation partielle de système optique grand angle pour venir compléter l'expertise du concepteur. Elles visent également à en définir des cadres d'application et d'identifier leurs limites d'utilisation. / As optical design needs to be rethought with the democratization of optical systems dedicated to machine vision, it still consists in solving non-linear problems optimizing cost functions. The advances in machine learning have led to different researches focusing on using data observations to complement the work of optical designers. On the one hand, data-driven methods allow identifying optical characteristics on a design that are crucial for its performance and re-use this information in new projects instead of starting from scratch. On the other hand, the joint optimization of the optical design and a neural network is useful to fine-tune the image quality criteria for machine vision. This thesis study the applicability of these methods for ultra-wide-angle optical designs. Recently normalized by being less and less bulky, they are of interest in the vision community due to their capability to image an entire scene within a single image. Designing them, however, still constitutes a challenge and the resulting distortion, in addition to constituting a visual discomfort, is a deep-rooted limitation in machine learning. The induced modification of object proportions along the image inherently decreases the performance of deep learning algorithm, specifically those of convolutional neural networks. These researches explore in particular the impact of optimizing the distortion profile of a system to improve the performance of a neural network for monocular depth estimation. They also integrate complementary studies on the prediction of image quality indicators such as the *RMS spot size* from the distortion itself, or on the relative contribution of other optical aberrations on the accuracy of wide-angle system simulation. The objective of these works is to build methods for partially optimizing complex compound optics to complement the designer's expertise. They also aim at defining a framework for using such methods and identifying their limitations.
|
144 |
Modélisation et simulation numérique du procédé Self-Induced Ion Plating (SIIP)Contino, Antonella 26 October 2006 (has links)
Le self-induced ion plating (S.I.I.P.) est un procédé hybride entre l’évaporation sous vide et la pulvérisation cathodique magnétron. L’ionisation d’un gaz rare (argon) est obtenue grâce à la différence de potentiel appliquée entre une cathode d’étain (matériau à évaporer) et un substrat (tôle d’acier à revêtir) relié à la masse. Les ions positifs Ar+ sont accélérés vers la cible par le champ électrique et bombardent celle-ci avec une énergie importante. Ce bombardement ionique de la surface de la cible et l’isolation thermique du système induisent l’échauffement de la cible, sa fusion et enfin son évaporation. Afin de garantir un bon rendement au procédé, un magnétron d’aimants permanents est placé sous la cible à évaporer (phénomène de confinement magnétique). Le gaz métallique évaporé se solidifie au contact du substrat formant la couche de dépôt souhaitée.
L’objectif de cette thèse revêt deux aspects : la mise en évidence des phénomènes physiques présents au sein du système et la simulation numérique de ceux-ci afin de déterminer l’épaisseur de dépôt obtenue sur la largeur du substrat.
Le modèle de simulation du S.I.I.P. est scindé en quatre étapes. La première étape consiste à calculer le champ magnétique produit par le magnétron. Ce champ magnétique dicte le comportement des électrons qui sont à l’origine de l’ionisation de l’argon et de ce fait, il est une donnée indispensable à la deuxième étape à savoir, la modélisation du bombardement ionique et la détermination de la distribution du flux de chaleur transmis à la cible par celui-ci. Dans cette deuxième étape nous utilisons un modèle de suivi de particules basé sur une méthode statistique connue sous le nom de méthode de Monte-Carlo. Le phénomène du bombardement ionique modélisé, au cours de la troisième étape, nous calculons les échanges thermiques qui ont lieu dans le S.I.I.P. Les modes de transfert considérés sont : la conduction, le rayonnement et la convection (convection naturelle, convection électromagnétique et convection Marangoni). Enfin, le champ de température obtenu par la modélisation thermique, couplé à la théorie de l'évaporation, nous permet de déterminer le flux de matière évaporé et déposé sur le substrat suite à son passage au-dessus du système de dépôt.
L’étude du S.I.I.P. a mis en évidence la complexité et la multidisciplinarité des phénomènes physiques mis en jeu dans les procédés PVD. De plus les résultats obtenus, validés à partir des mesures, nous ont permis de mettre en évidence l’importance significative du phénomène de convection Marangoni.
|
145 |
Conception collective de scénarios pédagogiques dans un contexte de réingénierie une approche par la métamodélisation située /El-Kechaï, Hassina Tchounikine, Pierre January 2008 (has links) (PDF)
Reproduction de : Thèse de doctorat : Informatique : Le Mans : 2008. / Titre provenant de l'écran-titre. Bibliogr. p. 253-265.
|
146 |
Modeling and simulation of spiral concentratorsSadeghi, Maryam 10 February 2024 (has links)
Les spirales gravimétriques ou « spirales » sont des équipements de séparation par gravité utilisés pour la valorisation des minerais pour lesquels la densité des minéraux de valeur est significativement différente de celle de gangue. C'est le cas du traitement du minerai de fer discuté dans cette thèse. Les spirales sont préférées à d'autres séparateurs car elles sont peu coûteuses, simples à utiliser, pratiquement sans entretien, peu exigeantes en énergie et n'utilisent pas de réactif. Malgré ces qualités attrayantes et contrairement à la flottation, peu d'études sont consacrées à examiner l'opération des spirales. En effet, ce n'est que récemment que l'analyse de ce procédé a démontré que les spirales ne réussissaient pas à récupérer les particules minérales denses et grossières au produit lourd alors qu'elles le devraient en théorie. Il a également été démontré récemment que l'eau de lavage, qui est la principale variable de contrôle pour les spirales, est en partie responsable de la perte des particules grossières. Pour compenser cette perte, d'autres variables de contrôle doivent être utilisées, dont l'ouverture des couteaux de concentré et la position des portes du diviseur à la décharge de la spirale. L'étude de stratégies alternatives de contrôle des spirales ne peut difficilement se faire en milieu industriel, car l'opération des usines de traitement des minéraux est soumise à des contraintes imposées par la production et la qualité du produit final. Par ailleurs, l'impact des perturbations dues aux variations du minerai et/ou aux problèmes mécaniques dans l'usine est inévitable. Tester de nouvelles stratégies de contrôle dans une usine pilote est une option certainement trop coûteuse. Les opérateurs d'usine recherchent donc des approches rapides et peu coûteuses pour identifier des stratégies qui pourraient ensuite être testées sécuritairement dans l'usine. La simulation de procédé offre cette possibilité, mais une étude de la littérature a rapidement révélé l'absence d'outils de simulation pour les spirales et plus particulièrement pour les circuits de séparation gravimétrique utilisant des spirales. Pour construire un tel simulateur il faut donc trouver ou développer des modèles mathématiques pour les unités du circuit. Pour pouvoir tester des stratégies de contrôle, il est important que le modèle développé prenne en compte les variables de fonctionnement de la spirale, dont l'ouverture des couteux de concentré et du diviseur à la décharge de spirale ainsi que l'ajout d'eau de lavage. L'objectif de ce projet de recherche est de proposer un tel modèle pour les spirales. Le modèle mathématique proposé décrit la trajectoire des particules distribuées en classes de minéraux/taille lors de leur descente dans la spirale. Cette prédiction est réalisée en introduisant le nouveau concept de Fonctions de Déplacement de Particules (FDP) pour décrire les mouvements des particules. Le modèle est calibré en utilisant des données générées à partir d'essais réalisés sur un montage à l'échelle pilote construit autour d'une spirale Mineral Technologies WW6 +, installée au Laboratoire de Traitement de Minerai de l'Université Laval. Le modèle est ensuite validé avec des données obtenues avec une spirale WW6E opérée au COREM. Le montage, mis en service à l'Université Laval, utilise une distribution contrôlée d'eau de lavage dans les tours de spirale pour surmonter le problème observé de distribution inégale de l'eau de lavage lorsque le système intégré à la spirale est utilisé. Le montage est également conçu pour échantillonner simultanément le produit de chaque couteau de concentré de la spirale, de sorte que la progression de la séparation des minéraux dans la spirale puisse être utilisée pour calibrer le modèle. Le simulateur calibré prédit de manière adéquate la réponse de la spirale aux changements des états des variables manipulables. Le modèle est capable de simuler l'opération d'une spirale nettoyeuse bien qu'il ait été calibré à l'aide de données collectées à partir d'une spirale ébaucheuse. Le modèle proposé est prêt à être implanté dans un simulateur pour une usine de traitement de minerai de fer, bien qu'il reste du travail à faire pour finaliser la méthodologie de calibrage pour améliorer la prédiction de la distribution granulométrique des minéraux dans le flux mixte de la spirale / Spiral concentrators are gravity separation devices used for the valorization of ores for which the specific gravity of the valuable minerals is significantly different from that of the gangue minerals. This is the case of iron ore processing discussed in this thesis. Spirals are preferred to other mineral separation devices because they are inexpensive, simple of operation, practically maintenance free, low energy demanding and do not require the use of reagents to separate minerals. Despite these appealing qualities and unlike flotation, few studies are dedicated to the analyze the spiral operation. Indeed, it is only recently that basic process analysis has shown that spirals fail to recover coarse dense mineral particles to the heavy product. It has also been recently found that wash water, as the main control variable for the operation of the studied spirals, is partly responsible for the loss of coarse valuable particles. To make up for this loss and to maintain a satisfactory operation of spirals, other control variables such as the concentrate cutter openings and position of the splitter gates at the spiral discharge should be used. The study of alternative control strategies for spirals implies testing these strategies in the industrial environment, which is practically impossible considering that the operation of mineral processing plants is subjected to constraints imposed on the production and on the quality of the plant product. Besides, the impact of disturbances due to ore variations and/or mechanical problems in the plant is unavoidable. Testing new control strategies in pilot plant is possible but it is certainly costly if one can find a pilot plant equipped for such testing. Plant operators are thus seeking for rapid and inexpensive approaches to carry out such investigation to identify strategies that can subsequently be safely tested in a plant. Process simulation offers this possibility, but a literature survey rapidly revealed the absence of simulation tools for spirals and more particularly for gravity separation circuits that use spiral concentrators. The first step in building such circuit simulator is to find or develop mathematical models for the units of the circuit. With the objective of testing control strategies, it is thus important that the model to be developed be able to account for the usual spiral operating variables, namely the cutter opening, the discharge splitter position and the wash water addition. The objective of this research project is to propose such model for spirals. A mathematical model is therefore described to predict the trajectory of particles distributed in mineral/size classes as they flow down a spiral. This is achieved here by introducing the new concept of Particle Displacement Functions (PDF) in spiral modelling to describe the movements of the particles flowing down the spiral. The model is calibrated using data generated from tests conducted on a pilot-scale test rig built around a Mineral Technologies WW6+ spiral, installed in the Mineral Processing Laboratory of Université Laval. The model is further validated with data obtained from a WW6E spiral operated at COREM. The test rig commissioned at Laval University uses a controlled wash water distribution within the spiral turns to overcome the observed problem of unequal wash water distribution when using the spiral built-in wash water distribution system. The test rig is also designed to sample simultaneously the product from each concentrate cutter of the spiral, so that the progress of the heavy mineral concentration down the spiral can be monitored. This information can be used to calibrate the model. The calibrated spiral simulator predicts adequately the spiral response to changes in the states of the operating variables. The model can simulate a cleaner spiral operation although it is calibrated using data collected from a rougher spiral operation. The proposed model is ready to be implemented into a simulator for an iron ore processing plant, although work remains to be done to finalize the calibration methodology to improve the prediction of the mineral size distribution in the spiral middling stream.
|
147 |
Modélisation et simulation de la séparation des éléments de terres rares par extraction par solvant : applications à la conception, l'opération et l'optimisation économique des circuitsTurgeon, Keven 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 7 juillet 2023) / Cette thèse tente de répondre à la question suivante : quel est le coût de la séparation des éléments de terres rares par le procédé d'extraction par solvant ? Pour arriver à répondre à la question, un outil de simulation spécifique à la séparation des éléments de terres rares (ETR) par extraction par solvant est développé. L'approche fondamentale du modèle utilise les constantes d'équilibre de la réaction d'extraction pour produire des simulations robustes et plus précises que les autres méthodes de simulation du procédé rapportées dans la littérature. L'approche proposée permet d'intégrer dans les simulations l'ensemble des paramètres opératoires d'un circuit de séparation réel, dont certains sont rarement considérés tels le degré de saponification ou les reflux entre les bancs de mélangeurs-décanteurs. Le modèle utilise une approche itérative à plusieurs niveaux de différents objets programmés afin d'obtenir une solution pour un sous-circuit comportant plusieurs mélangeurs-décanteurs agencés dans des bancs d'extraction, d'élution partielle et d'élution pour une de séparation entre deux éléments ou groupes d'éléments. Les prédictions du modèle sont confrontées avec succès à des résultats d'un pilotage d'un circuit de séparation des ETR. Le simulateur est utilisé pour étudier l'effet des facteurs de séparation, convertis par la suite en constantes d'équilibre, sur la facilité de séparation et développer différentes stratégies d'optimisation de consommation de réactifs, principalement pour l'étape d'élution d'un circuit. Les simulations montrent que le nombre de mélangeurs-décanteurs nécessaire à une séparation est le principal facteur affecté par une variation dans les facteurs de séparation, alors que la consommation en réactifs est affectée dans une moindre mesure. Le simulateur permet de faire la conception d'usines de séparation des ETR. En plus de détailler les paramètres de conception et d'opération des usines, les coûts d'opération et en capital sont estimés. Une usine alimentée a 10 t/j d'un concentré d'oxydes de terres rares (OTR) effectuant la majorité des séparations des ETR produisant 9 oxydes de terres rares couterait 405 M$ à construire et exigerait des coûts d'opération de 26 298 $ /t de concentré mixte d'OTR alimenté, alors qu'une usine séparant seulement les ETR générant le plus de revenus couterait 101 M$ et 9 805 $/t d'OTR à opérer. La simulation démontre, chiffres à l'appui, que basé sur les prix des OTR de 2021, la construction d'une usine comprenant une pré-séparation du cérium par précipitation et ne produisant que des oxydes de La, Pr-Nd, Tb et Dy est la solution la plus rentable, permettant de générer un bénéfice de 46 595 $/t d'OTR alimenté. Afin de quantifier objectivement la qualité de séparation d'un circuit en considérant l'aspect économique de la séparation, un indice de performance économique est développé ainsi qu'un calcul du flux monétaire généré pour une séparation tenant compte de la consommation en réactif. L'outil de simulation est utilisé pour déterminer des stratégies d'optimisation économique de l'opération d'une usine fictive. En cas de fluctuation des prix des ETR, il est possible de modifier le circuit pour cibler les ETR de valeur et diminuer les coûts d'opération afin de conserver la rentabilité de l'usine. Dans le cas où l'alimentation de l'usine changerait à la suite d'un changement dans la composition de son alimentation, le simulateur permet de déterminer les conditions d'opération à ajuster afin de conserver les puretés des produits telle la concentration en HCl des solutions d'élution partielle. / This thesis attempts to answer the following question: what is the cost of separating rare earth elements using the solvent extraction process? To achieve this, a simulation software specific to REE separation by solvent extraction is developed. The model fundamental approach using the equilibrium constants of the extraction reaction allows to produce robust and more accurate simulations than other process simulation methods reported in the literature. This approach allows to integrate all the parameters of a real circuit, some of which are rarely considered such as the degree of saponification or the reflux between the batteries of mixers-settlers. The model uses a multi-level iterative approach based on object-programming to obtain a solution for a defined separation sub-circuit. The predictions of the model are successfully confronted with results of a pilot REE separation circuit. The simulator is used to study the effect of separation factors on the ease of separation and to develop different optimization strategies for reagent usage, mainly for the elution stage of a circuit. The simulation shows that the number of mixer-settlers required for a circuit is the variable mostly affected by a variation in the separation factors, while reagent consumption is affected to a lesser extent. The simulator allows the design of different REE separation plants. In addition to detailing the design and operating parameters of the plants, the operating and capital costs are estimated. A plant fed with 10 t/d of rare earth oxide (REO) concentrate performing the majority of REE separations with 9 separated rare earth oxides would cost 405 M$ to build and 26 298 $/t of REO to operate with a marginal profit. On the other hand, a plant separating only the most valuable REE would cost $101 M and 9 805 $/t of REO fed to operate and would generate a profit of 46 595 $/t of REO fed based on 2021 REO prices. Simulation also shows that the construction of a plant including pre-separation of cerium by precipitation and producing only La, Pr-Nd, Tb and Dy oxides is the most cost-effective solution; an intuition of many authors, that is mathematically demonstrated here. In order to objectively quantify the separation quality of a circuit by considering the economic aspect of the separation, an economic performance index is developed as well as a calculation of the cash flow generated for a separation taking into account the reagent consumption. The simulation tool is used to determine economic optimization strategies for a virtual plant. In case of fluctuating REE prices, it is possible to modify the circuit operating strategy to target valuable REE and decrease the operating costs in order to keep the plant profitable. In case the plant feed changes due to differences in the composition of the REO concentrates purchased from different mines, the simulator can be used to determine the operating conditions to be adjusted in order to keep the products purities on target.
|
148 |
Dynamique stochastique d'interface discrète et modèles de dimèresLaslier, Benoît 02 July 2014 (has links) (PDF)
Nous avons étudié la dynamique de Glauber sur les pavages de domaines finies du plan par des losanges ou par des dominos de taille 2 × 1. Ces pavages sont naturellement associés à des surfaces de R^3, qui peuvent être vues comme des interfaces dans des modèles de physique statistique. En particulier les pavages par des losanges correspondent au modèle d'Ising tridimensionnel à température nulle. Plus précisément les pavages d'un domaine sont en bijection avec les configurations d'Ising vérifiant certaines conditions au bord (dépendant du domaine pavé). Ces conditions forcent la coexistence des phases + et - ainsi que la position du bord de l'interface. Dans la limite thermodynamique où L, la longueur caractéristique du système, tend vers l'infini, ces interfaces obéissent à une loi des grand nombre et convergent vers une forme limite déterministe ne dépendant que des conditions aux bord. Dans le cas où la forme limite est planaire et pour les losanges, Caputo, Martinelli et Toninelli [CMT12] ont montré que le temps de mélange Tmix de la dynamique est d'ordre O(L^{2+o(1)}) (scaling diffusif). Nous avons généralisé ce résultat aux pavages par des dominos, toujours dans le cas d'une forme limite planaire. Nous avons aussi prouvé une borne inférieure Tmix ≥ cL^2 qui améliore d'un facteur log le résultat de [CMT12]. Dans le cas où la forme limite n'est pas planaire, elle peut être analytique ou bien contenir des parties "gelées" où elle est en un sens dégénérée. Dans le cas où elle n'a pas de telle partie gelée, et pour les pavages par des losanges, nous avons montré que la dynamique de Glauber devient "macroscopiquement proche" de l'équilibre en un temps L^{2+o(1)}
|
149 |
Probability of detection analysis for infrared nondestructive testing and evaluation with applications including a comparison with ultrasonic testingDuan, Yuxia 20 April 2018 (has links)
La fiabilité d'une technique d’Évaluation Non-Destructive (END) est l'un des aspects les plus importants dans la procédure globale de contrôle industriel. La courbe de la Probabilité de Détection (PdD) est la mesure quantitative de la fiabilité acceptée en END. Celle-ci est habituellement exprimée en fonction de la taille du défaut. Chaque expérience de fiabilité en END devrait être bien conçue pour obtenir l'ensemble de données avec une source valide, y compris la technique de Thermographie Infrarouge (TI). La gamme des valeurs du rapport de l'aspect de défaut (Dimension / profondeur) est conçue selon nos expériences expérimentales afin d’assurer qu’elle vient du rapport d’aspect non détectable jusqu’à celui-ci soit détectable au minimum et plus large ensuite. Un test préliminaire est mis en œuvre pour choisir les meilleurs paramètres de contrôle, telles que l'énergie de chauffage, le temps d'acquisition et la fréquence. Pendant le processus de traitement des images et des données, plusieurs paramètres importants influent les résultats obtenus et sont également décrits. Pour la TI active, il existe diverses sources de chauffage (optique ou ultrason), des formes différentes de chauffage (pulsé ou modulé, ainsi que des méthodes différentes de traitement des données. Diverses approches de chauffage et de traitement des données produisent des résultats d'inspection divers. Dans cette recherche, les techniques de Thermographie Pulsée (TP) et Thermographie Modulée(TM) seront impliquées dans l'analyse de PdD. Pour la TP, des courbes PdD selon différentes méthodes de traitement de données sont comparées, y compris la Transformation de Fourier, la Reconstruction du Signal thermique, la Transformation en Ondelettes, le Contraste Absolu Différentiel et les Composantes Principales en Thermographie. Des études systématiques sur l'analyse PdD pour la technique de TI sont effectuées. Par ailleurs, les courbes de PdD en TI sont comparées avec celles obtenues par d'autres approches traditionnelles d’END. / The reliability of a Non-Destructive Testing and Evaluation (NDT& E) technique is one of the most important aspects of the overall industrial inspection procedure. The Probability of Detection (PoD) curve is the accepted quantitative measure of the NDT& E reliability, which is usually expressed as a function of flaw size. Every reliability experiment of the NDT& E system must be well designed to obtain a valid source data set, including the infrared thermography (IRT) technique. The range of defect aspect ratio (Dimension / depth) values is designed according to our experimental experiences to make sure it is from non-detectable to minimum detectable aspect ratio and larger. A preliminary test will be implemented to choose the best inspection parameters, such as heating energy, the acquisition time and frequency. In the data and image processing procedure, several important parameters which influence the results obtained are also described. For active IRT, there are different heating sources (optical or ultrasound), heating forms (pulsed or lock-in) and also data processing methods. Distinct heating and data processing manipulations produce different inspection results. In this research, both optical Pulsed Thermography (PT) and Lock-in Thermography (LT) techniques will be involved in the PoD analysis. For PT, PoD curves of different data processing methods are compared, including Fourier Transform (FT), 1st Derivative (1st D) after Thermal Signal Reconstruction (TSR), Wavelet Transform (WT), Differential Absolute Contrast (DAC), and Principal Component Thermography (PCT). Systematic studies on PoD analysis for IRT technique are carried out. Additionally, constructed PoD curves of IRT technique are compared with those obtained by other traditional NDT& E approaches.
|
150 |
Régions cérébrales impliquées dans l'encodage mnésique de la douleurAuclair, Vincent January 2016 (has links)
Le rappel d'une douleur passée est souvent utilisé par les professionnels de la santé afin d'évaluer la progression d'une douleur clinique et l'efficacité des moyens mis en place pour la traiter. Hors, le rappel d'une douleur est rarement précis et ceci représente une entrave majeure au processus décisionnel du traitement de la douleur clinique. À ce jour, on ignore toujours les mécanismes neuronaux engagés dans la formation de la mémoire d'une douleur et ceci est regrettable puisqu'aucune disposition ne peut être prise pour favoriser le rappel précis de la douleur. Il est aujourd'hui bien documenté que les mécanismes cérébraux engagés au moment de l'encodage mnésique sont essentiels dans la formation de la mémoire à long terme. En se basant sur ces résultats, nous avons postulé que l'activité cérébrale engagée au moment de l'encodage d'une douleur pourrait permettre de prédire la précision du rappel à long terme de cette douleur. Des stimulations électriques transcutanées, provoquant des sensations non-douloureuses et douloureuses, ont été administrées chez 21 participants en santé tout en procédant à l'enregistrement de leur activité cérébrale par la technique d'imagerie par résonance magnétique fonctionnelle (IRMf). Le rappel de la douleur a été évalué deux mois plus tard. La différence entre le rappel de la douleur et l'intensité de la douleur a constitué la variable dépendante principale, soit le score de précision du rappel de la douleur (PRD). Ces scores ont été rectifiés, de façon à ce que de faibles scores représentent un rappel précis de la douleur et de hauts scores représentent un rappel imprécis de la douleur. La douleur expérimentale a provoqué l'activation des régions classiquement associées au traitement et à la perception de la douleur, soit les cortex somatosensoriels primaires et secondaires, le cortex insulaire, le thalamus, le cortex cingulé antérieur et le cervelet (Z > 2.4, p < 0.05). L'analyse corrélationnelle principale a démontré que les scores de PRD étaient significativement et négativement associés à l'activité de l'insula dorso-antérieure gauche à l'encodage (r = -0.7549, p < 0.05 après correction pour mesures répétées). Aucune association similaire n'a été observée pour les stimulations électriques non-douloureuses. L'insula dorso-antérieure est traditionnellement associée à la saillance émotionnelle, l'interoception et la pertinence personnelle relative à une expérience. Puisque la précision du rappel est associée l'activité insulaire et qu'il a été démontré que le rappel d'un évènement qui nous concerne personnellement est plus précis, il est possible que le rappel d'une douleur passée soit plus précis lorsque la sensation ou le contexte a une importante signification émotionnelle ou personnelle.
|
Page generated in 0.0657 seconds