Spelling suggestions: "subject:"A para""
131 |
Développement d'un algorithme numérique pour l'identification in-situ du champ de perméabilités d'une préforme fibreuse par une méthode inverse / Development of a numerical algorithm for in-situ identification of permeability field in a fiber preform by an inverse methodRedko, Vadym 15 December 2016 (has links)
Dans le procédé RTM (Resin Transfer Molding) utilisé pour la mise en œuvre de structures composites de haute performance, la phase d'imprégnation d'une préforme fibreuse par une résine est déterminante pour la qualité des pièces fabriquées. Pour éviter des défauts de fabrication, la simulation numérique du procédé est largement utilisée. Elle demande une bonne connaissance de caractéristiques matériau dont la principale est la perméabilité du renfort. La caractérisation expérimentale de la perméabilité ayant une variabilité importante, des techniques numériques fiables et applicables dans l'industrie sont recherchées. Ce projet de thèse vise à développer une méthode numérique d'identification in-situ du champ de perméabilité. La performance de la méthode est démontrée sur l'exemple de trois cas d'étude. Un algorithme basé sur la méthode inverse permet notamment d'identifier la perméabilité isotrope et anisotrope ainsi que de détecter l'effet de race-tracking. Dans la suite, les résultats de ce travail pourront être implémentés dans un système de contrôle on-line du procédé RTM. / In the Resin Transfert Molding process used to manufacture high performance composite structures, the fibrous preform impregnation by resin largely determines the piece quality. Numerical simulation is widely used in order to adress the issue of manufacturing defects. It is necessary to know material charasteristics of preform such as perméability which is the most important one. Generally, the preform permeability is obtained by an experimental measurement having a large variability. Therefore, reliable numerical techniques are being looked for. This PhD thesis aims to develop a numerical algorithm by inverse method to identify in-situ the permeability field. The performance of the method is shown by validation of three study cases. The developped algorithm allows to identify isotropic and anisotropic permeability as well as to detect the race tracking effect. In a future work, this numerical algorithm will be implemented in an on-line control system to optimize the mold filling process.
|
132 |
Application du test de concordance : étude exploratoire du développement de la compétence à évaluer les élèves chez les enseignantsSmith, Jennifer January 2017 (has links)
Les approches contemporaines de l’éducation doivent répondre à un nombre de tensions suscitées par les changements technologiques, sociaux et économiques. Les questionnements sur la vision de l’apprentissage qui en découlent ont justifié l’implantation des programmes par compétences. Ce changement de paradigme a impliqué des réajustements sur le plan de l’évaluation des apprentissages. À la lumière de ces réalités, il est impératif de se pencher sur les dispositifs de formation au jugement évaluatif et de les bonifier. Inspiré par les points de convergence entre le développement du jugement clinique des médecins et celui du jugement en évaluation, Dionne (2005) a développé un instrument intitulé le test de jugement professionnel en évaluation des apprentissages (TJPEA). Composé de situations authentiques, il vise à mesurer le niveau de jugement des étudiants à la formation des maitres en contexte formatif.
Cette étude exploratoire qualitative interprétative a été menée auprès de douze participants catégorisés en trois profils différents : quatre étudiants de première année à la formation des maîtres au secondaire (novices), quatre enseignants d’expérience oeuvrant dans une école secondaire québécoise (praticiens) et quatre professeurs universitaires spécialisés en évaluation des apprentissages (experts). Les données recueillies via la passation orale d'un TJPEA ont permis de (1) contribuer à identifier les différents facteurs susceptibles d’influencer le jugement professionnel en évaluation des répondants, (2) de comprendre davantage la dynamique de progression du développement de la compétence à évaluer, notamment en identifiant les différents schèmes de pensée entre les profils de répondants et (3) ressortir les différents obstacles à l’exercice du jugement évaluatif des sujets.
Même si nous sommes conscients que les résultats obtenus à cette étude ne sont pas généralisables en raison de son échantillon limité, il est tout de moins possible d’en faire découler de nouvelles avenues de recherche. Cela nous permettra éventuellement de proposer des solutions à la relève enseignante et de favoriser le développement d’un jugement en évaluation juste et équitable pour les élèves.
|
133 |
Méthode de projection des données pour le diagnostic des systèmes linéaires et bilinéaires / Data-projection method for diagnosis of linear and bilinear systemsHakem, Assia 27 June 2014 (has links)
Dans cette thèse nous nous sommes intéressés à la détection, la localisation et l'estimation de défauts (capteurs, actionneurs et défauts internes) dans les systèmes modélisés sous forme d'état linéaire et bilinéaire. La méthode que nous proposons, (appelée MPD pour Méthode par Projection des Données), nécessite de connaître la structure du modèle comportemental mais ne nécessite pas de connaître les valeurs des paramètres de ce modèle. Les résidus sont générés par des techniques de projection matricielle en utilisant uniquement les données d'entrées et de sorties mesurées. Cette méthode peut être directement implantée sur des applications de même type sans que les paramètres de chaque système soient identifiés. Cette méthode pourrait donc être très utile pour tester des systèmes en fin de chaîne de fabrication ou pour être implantée sur un parc (groupe) de machines identiques. Elle pourrait être aussi utile pour des systèmes à paramètres difficilement identifiables. Les défauts internes (supposés abrupts et invariants, c'est-à-dire correspondant à un biais constant sur les paramètres) entraînent des dynamiques différentes qui correspondent à des modes de fonctionnement défaillant. Le problème de diagnostic se ramène alors à un problème d'estimation des instants de commutation et de reconnaissance du mode actif à chaque instant. / In this thesis we are interested in detecting, isolating and estimating faults (sensors, actuators and internal faults) in systems modeled as linear and bilinear systems. The method we propose (called MPD Data Projection Method), requires knowledge of the behavioral model structure but does not need to know the parameter values of this model. Residuals are generated by matrix projection techniques using only the input-output measured data. This method can be directly implemented on applications of the same type without the parameter identifications of each system. This method could be very useful for testing systems at the end of the production line or to be located on a park (group) of identical machines. It could also be useful for systems with parameters difficult to identify. Internal faults (assumed abrupt and invariants, that is to say corresponding to a constant bias parameters) lead to different dynamics corresponding to modes of faulty operation. The diagnostic problem then reduces to a problem of estimation of the switching times and recognition of the active mode at each time instant.
|
134 |
Élimination (par adsorption sur la brique activée) de polluants métalliques dans les eaux de la République Centrafricaine et les pays en voie de développement : Aspects texturaux, physicochimiques, (électro)cinétiques et thermodynamiques / Elimination of metallic pollutants in waters in tropical zone by activated brick : Textural, physico-chemical, (electro)kinetic and thermodynamic aspectsAllahdin, Oscar 23 October 2014 (has links)
Malgré les ressources importantes en eau de la République Centrafricaine 70 % de la population ne dispose pas d’eau potable et la question se pose cruellement de potabiliser l’eau . Nous nous sommes intéressés à la technique d'adsorption sur une brique locale comme adsorbant aisément accessible pour purifier l'eau en milieu rural. Après traitement acide et dépôt de ferrihydrite à pH fixé, la brique s’est avérée être un bon adsorbant par échanges d'ions. Le composite obtenu, permet ainsi la rétention de cations métalliques tels : Fe2+, Pb2+, Zn2+, Cu2+, Ni2+, Cd2+ et UO2+ et selon le traitement préalable d'anions tels les phosphates grâce aux charges opposées entre la surface du solide et les ions dans l'eau. L’influence de paramètres : temps de contact, température, masse d’adsorbant et pH, ont été pris en compte. La régénération sur colonne a été effectuée par une solution de NaCl ou de NaClO. L’étude analytique de cycles d’adsorption/désorption sur colonne a mis en évidence l’implication des espèces H+ et Na+ à l’interface « brique-eau ». Pour justifier nos hypothèses, diverses techniques ont été utilisées: Diffraction RX, MEB /EDS, IRTF, BET, RMN 23Na, 29Si, 27Al, 1H. Les mesures des adsorptions ont été suivies in situ par potentiométrie et conductimétrie.Les isothermes d'adsorption, la cinétique et thermodynamie des processus hétérogènes mis en jeu ont été abordés. Les mesures électrocinétiques ont confirmé l'implication de forces électrostatiques dans le mécanisme d'adsorption. / Despite the great ressources of water in Centrafrican Republic, drinking water is not accessible for about 70% of the population in this country. To resolve this problem, waters need to be treated. We have chosen the adsorption technique,by using a local brick as adsorbant in the purification of water in rural region. After acid treatment and deposition of ferrihydrite at a fixed pH, brick was found to be a good adsorbant in the elimination : Fe2+, Pb2+, Zn2+,Cu2+, Ni2+, Cd2+, UO2+. This adsorption process was also applied to phosphates elimination. The effects of the parameters: contact time, temperature, mass of material, and pH were taken into account. Column regeneration was performed either by using NaCl solution or NaClO as eluent. The analytical studies of adsorption/desorption cycles on the column showed the implication of H+ and Na+ ions at the "brick-water" interface. Depending upon the treatment used, cations or anions could be adsorbed owing to the existence of opposite charges between solid surface and ions in water. To ascertain our assumptions, several techniques were used : X-Ray diffraction, SEM /EDS, FTIR, BET, 23Na, 29Si, 27Al, and 1H NMR. Adsorption measurements were also followed by potentiometry and conductimetry. Adsorption isotherms, kinetics and thermodynamie of heterogeneous processes involved were addressed. Electrokinetic measurements conformed the involvement of electrostatic forces in the adsorption mechanism.
|
135 |
Composés à base de lanthanides : nouveaux uranyl-vanadates et oxalates / Lanthanide-based compounds : new uranyl-vanadates and oxalatessMer, Alexandre 17 December 2010 (has links)
Les composés à base de lanthanide jouent un rôle important pour différentes propriétés (optiques, magnétiques ... ) mais aussi dans le domaine des matériaux du nucléaire (matrices de conditionnement des actinides, produits de fission, simulants des actinides (III). ). La première partie de ce travail est consacrée à l'étude des vanadates d'uranyle et de lanthanide. Par voie solide, un seul composé a pu être obtenu Sa structure est bâtie sur des feuillets simples uranophane ∞ ²[(UO2)(VO4)]- et des feuillets doubles ∞²[La(UO2)(V2O7)2]+ particulièrement originaux se déduisant des feuillets uranophane par remplacement d'un atome duranium sur deux par le lanthane. Par synthèse hydrothermale, les phases TR(VUO6)3•xH2O ont été obtenues. leur structure est basée sur l'empilement de couches de type carnotite ∞²[(UO2)2V2O8]²- liées entre elles par la terre rare. La seconde partie est dédiée à l'étude de systèmes amine - lanthanide - oxalate. Les composés obtenus par croissance cristalline dans un gel appartiennent à une série d'oxalates de structure bi-dimensionnelle appelée "série quadratique" dont les feuillets se composent de polyèdres LnO8(H2O) reliés par des ions oxalate et formant des cycles "carrés". Par synthèse hydrcthermale, d'autres composés de même formule générale, (CnH2n(NH3)2)0,5[Ln(H2O)(C2O4)2]•xH2O mais présentant des arrangements structuraux différents. bi-dimensionnel et tri-dimensionnel, ont été obtenus. Enfin. l'utilisation de monoammes toujours en conditions hydrothermales a permis l'obtention d'oxalates et d'hydroxy-oxalates de néodyme originaux ne contenant pas d'amine. / Lanthanide-based compounds exhibit interestmg physical properties (optical, magnetic .. ) but also play an important role in the field of nuclear industry as matrices for actinides, fission products or actinide (III) surrogates for example.The first part of this work is devoted to the study of uranyl-vanadate and lanthanide compounds 8y solid-state reaction, the new compound La(UO2l2(VO4)(V2O7) cou Id be obtained Its structure is based on the association of uranophane sheets ∞ ²[(UO2)(VO4)]- and of double layers ∞²[La(UO2)(V2O7)2]+, in which half of the uranium atoms are replaced by lanthanum atoms. The phase TR(VUO6)3•xH2O were obtained by using hydrothermal synthesis Their structure IS based on the stacking of carnotite type layers ∞²[(UO2)2V2O8]²- linked together by the rare earth elementThe second part concerns the study of various amine-Ianthanide-oxalate systems. The diamines contained lanthanide-oxalates which were obtained by growing crystals in gel. belong to the series of oxalates named "quadratic" Their two-dimensional structure is formed by sheets in whlch the LnO8(H2O) polyhedra linked by oxalate ions form "square" rings. By hydrothermal synthesis, two compounds exhibiting the sa me general formula (CnH2n(NH3)2)0,5[Ln(H2O)(C2O4)2]•xH2O but having different structural arrangements, two-dimensional and three-dimenslonal. were obtained. Finally. using monoamines instead of diamines under hydrothermal conditions. lead to the synthesis of new neodymium oxalates and hydroxy-oxalates with no amine contamed.
|
136 |
Méthode proposant l'utilisation de la programmation fonctionnelle pour la génération de solutions architecturales partielles sous forme matricielleCharbonneau, Nathalie January 2002 (has links)
No description available.
|
137 |
Amélioration du filtrage de la contrainte WeightedCircuit pour le problème du commis voyageurBoudreault, Raphaël 27 January 2024 (has links)
Le problème du commis voyageur, aussi connu sous le nom de problème du voyageur de commerce ou traveling salesman problem (TSP) en anglais, est un problème classique de l'optimisation combinatoire et de la recherche opérationnelle. Il consiste, étant donné un certain nombre de villes et la distance entre chacune d'entre elles, à trouver un chemin de longueur minimale visitant chaque ville une seule fois et retournant à son point de départ. Le problème apparaît naturellement dans une multitude de problématiques de transport et industrielles, en plus de trouver des applications dans un important nombre de domaines en apparence non liés, allant de la logistique au séquençage de l'ADN. Toutefois, sa complexité informatique le rend difficile à résoudre. Le solveur Concorde permet actuellement de résoudre de manière exacte des instances du TSP comportant des milliers de villes en seulement quelques secondes. Cependant, une limitation importante est qu'il ne permet pas de considérer des contraintes additionnelles telles que des fenêtres de temps pour chaque visite. La programmation par contraintes est une approche permettant facilement d'ajouter ces contraintes au problème. Dans ce mémoire, nous revisitons l'approche CP-based Lagrangian relaxation (CP-LR) utilisée notamment pour les algorithmes de filtrage de l'état de l'art de la contrainte WeightedCircuit encodant le TSP en programmation par contraintes. Nous proposons deux nouveaux algorithmes basés sur notre approche CP-LR améliorée. Ceux-ci permettent d'obtenir un gain significatif sur le temps de résolution du TSP comparativement à l'implémentation de l'état de l'art. / The traveling salesman problem (TSP) is a classic problem in combinatorial optimization and operations research. It consists, given a number of cities and the distance between each of them, to find a path of minimal distance visiting each city exactly once and returning to its starting point. The problem naturally appears in various transportation and industrial problems, in addition to having applications in several domains apparently unrelated, going from logistics to DNA sequencing. Its computational complexity makes it nonetheless difficult to solve. The Concorde solver currently allows to exactly solve TSP instances having thousands of cities in only a few seconds. However, an important limitation is that it cannot consider additional constraints such as time windows for each visit. Constraint programming is an approach that easily allows these constraints to be added to the problem. In this Master's thesis, we revisit the CP-based Lagrangian relaxation (CP-LR) approach used in particular for the state-of-the-art filtering algorithms of the WeightedCircuit constraint that encodes the TSP in constraint programming. We propose two new algorithms based on our improved CP-LR approach. These allow to obtain a significant gain on the TSP solving time when compared to the state-of-the-art implementation.
|
138 |
Intégration et applicabilité des méthodes d'apprentissage supervisé pour la conception de systèmes optiques grand-angleBuquet, Julie 05 August 2024 (has links)
Alors que la conception optique doit se réinventer avec la démocratisation de systèmes optiques utilisés pour la vision machine, elle reste basée sur la résolution de problème non-linéaire via l'optimisation de fonction de coût. Grâce à l'avancée des recherches en apprentissage automatique, des travaux se penchent sur l'utilisation des pratiques basées sur les données pour complémenter les travaux du concepteur optique. D'une part, l'apparition de méthodes basées sur les données permet d'identifier les caractéristiques cruciales à la qualité d'un design et de réutiliser ces données dans d'autres travaux sans avoir à recommencer de zéro. D'autre part, l'exploration de l'optimisation conjointe de réseaux de neurones profonds et du design optique a permis de raffiner les critères de qualité d'image pour la vision machine. Cette thèse étudie l'applicabilité de ces méthodes pour des systèmes grand angle. Récemment démocratisés en devenant moins encombrants, ils présentent un intérêt certain en vision par ordinateur grâce à leur capacité à imager un environnement complet en une seule image. Leur conception reste cependant un défi de taille à ce jour et la distorsion en résultant, en plus de pouvoir constituer une gêne visuelle, constitue un véritable défi en apprentissage automatique. La modification des proportions sur l'image induite par celle-ci vient, de manière inhérente, altérer les performances des algorithmes de vision machine, en particulier les réseaux de neurones convolutifs. Ces recherches explorent notamment l'impact et l'optimisation de la distorsion pour améliorer les performances des réseaux de neurones pour l'estimation de profondeur à une seule image. Elles impliquent également des travaux complémentaires sur la prédiction de critères de qualité d'image comme le *RMS spot size* à partir du profil de distorsion ou encore la contribution des autres aberrations présentes dans ce type de design sur la précision des modèles de simulation. Ces recherches ont pour objectif de construire des méthodes d'optimisation partielle de système optique grand angle pour venir compléter l'expertise du concepteur. Elles visent également à en définir des cadres d'application et d'identifier leurs limites d'utilisation. / As optical design needs to be rethought with the democratization of optical systems dedicated to machine vision, it still consists in solving non-linear problems optimizing cost functions. The advances in machine learning have led to different researches focusing on using data observations to complement the work of optical designers. On the one hand, data-driven methods allow identifying optical characteristics on a design that are crucial for its performance and re-use this information in new projects instead of starting from scratch. On the other hand, the joint optimization of the optical design and a neural network is useful to fine-tune the image quality criteria for machine vision. This thesis study the applicability of these methods for ultra-wide-angle optical designs. Recently normalized by being less and less bulky, they are of interest in the vision community due to their capability to image an entire scene within a single image. Designing them, however, still constitutes a challenge and the resulting distortion, in addition to constituting a visual discomfort, is a deep-rooted limitation in machine learning. The induced modification of object proportions along the image inherently decreases the performance of deep learning algorithm, specifically those of convolutional neural networks. These researches explore in particular the impact of optimizing the distortion profile of a system to improve the performance of a neural network for monocular depth estimation. They also integrate complementary studies on the prediction of image quality indicators such as the *RMS spot size* from the distortion itself, or on the relative contribution of other optical aberrations on the accuracy of wide-angle system simulation. The objective of these works is to build methods for partially optimizing complex compound optics to complement the designer's expertise. They also aim at defining a framework for using such methods and identifying their limitations.
|
139 |
Algorithmes de vérification et de filtrage pour la contrainte Cumulative et ses variantesOuellet, Yanick 22 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Les problèmes d'ordonnancement, où il faut planifier des tâches sur une ligne du temps en respectant différentes contraintes, sont présents dans une grande variété d'industries. Cela va de la conception d'horaire pour un hôpital jusqu'à la planification de la production en usine. Malheureusement, la plupart de ces problèmes sont NP-difficiles. La programmation par contraintes s'est montrée très efficace pour résoudre ces problèmes. Dans cette thèse, nous présenterons des algorithmes de vérification et de filtrage pour trois contraintes d'ordonnancement. La première, la contrainte $\textup{Cumulative}$ limite l'utilisation d'une ressource à une capacité maximale. Pour cette contrainte, nous améliorons la complexité d'algorithmes de vérification et de filtrage existants. La deuxième contrainte, la $\textup{SoftCumulative}$, est une variation de la $\textup{Cumulative}$ où il est possible de dépasser la capacité maximale, moyennant une pénalité. La troisième, la contrainte $\textup{MinCumulative}$, force une utilisation minimale, plutôt que maximale, de la ressource. Pour ces deux dernières contraintes, nous introduisons de nouveaux algorithmes qui sont inspirés par les algorithmes classiques de la contrainte $\textup{Cumulative}$. / Scheduling problems occur in various industries. Examples of these problems include, among others, nurse rostering, production planning in a factory, and airline crew scheduling. In such problems, one needs to schedule tasks on a time line while satisfying several constraints. Unfortunately, most of these problems are NP-Hard. Constraint programming has been shown to be an effective technique to solve NP-hard scheduling problems. In this thesis, we introduce checker and filtering algorithms for three scheduling constraints. $\textup{The Cumulative}$ constraint limits the resource consumption to a maximal capacity. For that constraint, we present faster checker and filtering algorithms. $\textup{The SoftCumulative}$ constraint is a variant of the $\textup{Cumulative}$ where it is possible to exceed the capacity, but doing so incurs a penalty. The $\textup{MinCumulative}$ constraint enforces a minimum resource usage, rather than limiting it. For those two constraints, we introduce new filtering algorithms that are inspired by classical algorithms for the $\textup{Cumulative} constraint.
|
140 |
Modélisation et simulation numérique du procédé Self-Induced Ion Plating (SIIP)Contino, Antonella 26 October 2006 (has links)
Le self-induced ion plating (S.I.I.P.) est un procédé hybride entre l’évaporation sous vide et la pulvérisation cathodique magnétron. L’ionisation d’un gaz rare (argon) est obtenue grâce à la différence de potentiel appliquée entre une cathode d’étain (matériau à évaporer) et un substrat (tôle d’acier à revêtir) relié à la masse. Les ions positifs Ar+ sont accélérés vers la cible par le champ électrique et bombardent celle-ci avec une énergie importante. Ce bombardement ionique de la surface de la cible et l’isolation thermique du système induisent l’échauffement de la cible, sa fusion et enfin son évaporation. Afin de garantir un bon rendement au procédé, un magnétron d’aimants permanents est placé sous la cible à évaporer (phénomène de confinement magnétique). Le gaz métallique évaporé se solidifie au contact du substrat formant la couche de dépôt souhaitée.
L’objectif de cette thèse revêt deux aspects : la mise en évidence des phénomènes physiques présents au sein du système et la simulation numérique de ceux-ci afin de déterminer l’épaisseur de dépôt obtenue sur la largeur du substrat.
Le modèle de simulation du S.I.I.P. est scindé en quatre étapes. La première étape consiste à calculer le champ magnétique produit par le magnétron. Ce champ magnétique dicte le comportement des électrons qui sont à l’origine de l’ionisation de l’argon et de ce fait, il est une donnée indispensable à la deuxième étape à savoir, la modélisation du bombardement ionique et la détermination de la distribution du flux de chaleur transmis à la cible par celui-ci. Dans cette deuxième étape nous utilisons un modèle de suivi de particules basé sur une méthode statistique connue sous le nom de méthode de Monte-Carlo. Le phénomène du bombardement ionique modélisé, au cours de la troisième étape, nous calculons les échanges thermiques qui ont lieu dans le S.I.I.P. Les modes de transfert considérés sont : la conduction, le rayonnement et la convection (convection naturelle, convection électromagnétique et convection Marangoni). Enfin, le champ de température obtenu par la modélisation thermique, couplé à la théorie de l'évaporation, nous permet de déterminer le flux de matière évaporé et déposé sur le substrat suite à son passage au-dessus du système de dépôt.
L’étude du S.I.I.P. a mis en évidence la complexité et la multidisciplinarité des phénomènes physiques mis en jeu dans les procédés PVD. De plus les résultats obtenus, validés à partir des mesures, nous ont permis de mettre en évidence l’importance significative du phénomène de convection Marangoni.
|
Page generated in 0.0548 seconds