• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 691
  • 169
  • 54
  • 1
  • Tagged with
  • 912
  • 912
  • 411
  • 293
  • 234
  • 166
  • 128
  • 119
  • 96
  • 92
  • 84
  • 82
  • 82
  • 76
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Modélisation et simulation numérique de la dynamique des nanoparticules appliquée aux atmosphères libres et confinées

Devilliers, Marion 23 November 2012 (has links) (PDF)
Il est probable qu'à terme les émissions de nanoparticules soient réglementées et ce sont donc les concentrations en nombre qui seront considérées. Il convient donc d'adapter les modèles afin de pouvoir simuler correctement les concentrations en nombre, dans les ambiances confinées comme dans l'atmosphère. Un modèle de dynamique des particules capable de suivre avec autant de précision la concentration en nombre que la concentration en masse, avec un temps de calcul optimal, a été développé. La dynamique des particules dépend de divers processus, les plus importants étant la condensation/évaporation, suivie par la nucléation, la coagulation, et les phénomènes de dépôts. Ces processus sont bien connus pour les particules fines et grossières, mais dans le cas des nanoparticules, certains phénomènes additionnels doivent être pris en compte, notamment l'effet Kelvin pour la condensation/ évaporation et les forces de van der Waals pour la coagulation. Le travail a tout d'abord porté sur le processus de condensation/évaporation, qui s'avère être le plus compliqué numériquement. Les particules sont présumées sphériques. L'effet Kelvin est pris en compte car il devient considérable pour les particules de diamètre inférieur à 50 nm. Les schémas numériques utilisés reposent sur une approche sectionnelle : l'échelle granulométrique des particules est discrétisée en sections, caractérisées par un diamètre représentatif. Un algorithme de répartition des particules est utilisé, après condensation/évaporation, afin de conserver les diamètres représentatifs à l'intérieur de leurs sections respectives. Cette redistribution peut se faire en terme de masse ou de nombre. Un des points clé de l'algorithme est de savoir quelle quantité, de la masse ou du nombre, doit être redistribuée. Une approche hybride consistant à répartir la quantité dominante dans la section de taille considérée (le nombre pour les nanoparticules et la masse pour les particules fines et grossières) a été mise en place et a permis d'obtenir une amélioration de la précision du modèle par rapport aux algorithmes existants, pour un large choix de conditions. Le processus de coagulation pour les nanoparticules a aussi été résolu avec une approche sectionnelle. La coagulation est régie par le mouvement brownien des nanoparticules. Pour cette approche, il a été constaté qu'il est plus efficace de calculer le noyau de coagulation en utilisant le diamètre représentatif de la section plutôt que de l'intégrer sur la section entière. Les simulations ont aussi pu montrer que les interactions de van der Waals amplifient fortement le taux de coagulation pour les nanoparticules. La nucléation a été intégrée au modèle nouvellement développé en incorporant un terme source de nanoparticules dans la première section, commençant à un nanomètre. La formulation de ce taux de nucléation correspond à celle de l'acide sulfurique mais le traitement des interactions numériques entre nucléation, coagulation et condensation/évaporation est générique. Différentes stratégies de couplage visant à résoudre séparément ou en même temps les trois processus sont discutées. Afin de pouvoir proposer des recommandations, différentes méthodes numériques de couplage ont été développées puis évaluées par rapport au temps de calcul et à la précision obtenue en terme de concentration massique et numérique
122

Étude d'un procédé de formage incrémental : les clés d'une simulation numérique performante

Raujol-Veillé, Jonathan 11 December 2012 (has links) (PDF)
L'objectif de ce travail de thèse est de proposer un modèle numérique permettant de simuler la mise en forme de viroles métalliques par un procédé de formage incrémental. Ce procédé de mise en forme est particulièrement intéressant pour les industriels car il permet d'une part de réduire les pertes de matière première et d'autre part d'obtenir des pièces avec des propriétés mécaniques améliorées. La mise au point du procédé reste néanmoins une étape fastidieuse et le recours à l'outil numérique devient indispensable si l'on souhaite atteindre le meilleur rapport qualité/coût-délai. À cette fin, le comportement mécanique d'un acier faiblement allié a été étudié à travers divers essais de traction et de cisaillement. Les résultats de ces essais mettent en évidence que le matériau présente une faible anisotropie de comportement, une faible sensibilité à la vitesse de déformation et un écrouissage cinématique (effet Bauschinger). Cette base de données expérimentales a ensuite servi à l'identification de plusieurs modèles de comportement élastoplastique phénoménologique. Deux modèles numériques différents ont alors été développés au sein du code de calculs par éléments finis Abaqus afin de simuler le formage d'une pièce de référence et d'une étude de cas industriel. Les résultats de ces simulations montrent que le modèle tridimensionnel fournit une bonne représentation du procédé de formage a contrario du modèle bidimensionnel axisymétrique construit notamment afin de réduire les temps de calculs. Par ailleurs, une étude de la sensibilité du modèle éléments finis aux différents modèles de comportement identifiés a été menée. Les résultats de cette étude ont permis de mettre en évidence que la description du comportement plastique n'a qu'une faible influence sur la géométrie de la pièce déformée alors même que le comportement élastique joue un rôle bien plus important notamment au regard du calcul du retour élastique des pièces. Il a également été montré que le choix d'une forme particulière de géométrie de pièce permettait de réduire considérablement ce phénomène. Enfin, une étude sur la modélisation du comportement du matériau avec un modèle moins phénoménologique a été entreprise. Elle permet d'avoir un caractère plus générique avec un nombre de paramètres inférieurs aux modèles phénoménologiques en considérant les hétérogénéités du matériau. Elle ouvre la voie à l'utilisation de modèle de comportement prenant en compte des phénomènes physiques au sein d'un modèle éléments finis sur une opération de formage.
123

Simulations numériques de perturbations d'un tourbillon de Lamb-Oseen : application à l'éclatement tourbillonnaire dans les sillages des avions de transport

Thomas, Olivier 07 July 2009 (has links) (PDF)
Ce mémoire synthétise les travaux réalisés sur le thème des instabilités propagatives et l'éclatement tourbillonnaire observé dans des installations expérimentales telles que les souffleries à catapulte ou les bassins hydrodynamiques, dont le but est de caractériser le sillage tourbillonnaire d'avions de transport. Il comprend une synthèse bibliographique, une exploitation des campagnes d'essais réalisées dans la soufflerie B20 à l'ONERA Lille, une présentation du code de calcul FLUDILES de Simulation Numérique Directe, une modélisation des perturbations d'un tourbillon de Lamb-Oseen et la validation des calculs DNS sur la théorie de stabilité linéaire, ainsi qu'une étude numérique et théorique de la dynamique non linéaire d'un tourbillon de Lamb-Oseen par la DNS.
124

Caractérisation expérimentale et contribution à la modélisation numérique de l'endommagement en cisaillement des aciers HLE. Applications au procédé de poinçonnage

ACHOURI, Mohamed 06 December 2012 (has links) (PDF)
L'objectif principal de ces travaux de thèse est de caractériser lecomportement et l'endommagement d'un matériau HLE durant le procédé depoinçonnage. Ils comportent dans un premier temps, une étude expérimentale quirepose sur des observations micrographiques et des essais macroscopiques àdifférents états de contrainte, afin d'identifier les mécanismes physiquesd'endommagement mis en jeu. Cette étude est complétée par une modélisationnumérique du modèle d'endommagement de Gurson modifié en cisaillement et sonimplémentation dans ABAQUS/Explicit. Une stratégie d'identification des paramètresmatériau basée sur une large gamme de configurations expérimentales a été mise enplace. Des essais de poinçonnage ont été réalisés en faisant varier le jeu poinçon-matrice, afin de tester la capacité prédictive du modèle de Gurson modifié par rapportau modèle de GTN classique et à un critère découplé basé sur l'initiation de rupture.L'influence du jeu poinçon-matrice sur la qualité de découpe et sur les niveaux desétats de contrainte et de déformation a été également mise en évidence. Lesprédictions de rupture obtenues par cette approche et pour le matériau étudié sont enbon accord avec les observations expérimentales. Il reste à valider le modèle pourdes configurations de couples matériau/procédé plus étendues et à réaliser sonenchainement avec les autres procédés de mise en forme.
125

L'approche méthodologique à la validation d'une paramétrisation des aérosols et nuages en utilisant le simulateur des instruments d'Earthcare

Tatarevic, Aleksandra January 2009 (has links) (PDF)
La validation d'un modèle atmosphérique avec les observations satellitaires est basée sur les différentes techniques de télédétection employées afin de récupérer des propriétés physiques et optiques de composantes atmosphériques, notamment des nuages et des aérosols. Il est bien connu que le « retrieval approach » introduit de grandes incohérences en raison des hypothèses diverses portant sur le problème d'inversion où la principale difficulté est l'unicité de la solution. Autrement dit, le milieu analysé peut être composé d'un certain nombre de paramètres physiques inconnus dont les combinaisons différentes mènent au même signal de radiation. En plus du problème d'unicité de la solution, il y a plusieurs problèmes mathématiques reliés à l'existence et à la stabilité de la solution ainsi qu'à la manière dont la solution est construite. Par contre, il est bien connu que les prévisions des modèles atmosphériques souffrent d'incertitudes portant sur l'approche numérique qui limite leurs applications à la simulation de phénomènes naturels. Malgré ces difficultés, certains aspects des prévisions numériques peuvent être considérées comme réalistes parce qu'elles prennent explicitement en considération les principes de la physique, dont des processus microphysiques des nuages et des aérosols. Dans ce contexte, la motivation principale de cette recherche est d'évaluer le potentiel de la validation des paramétrisations physiques des aérosols et des nuages dans les modèles climatiques par le biais des mesures satellitaires (radar et lidar) en utilisant les « simulation vers l'avant ». Dans cette étude, nous utilisons une approche qui emploie le modèle Simulateur des instruments d'EarthCARE afin de reproduire des mesures satellitaires comparables à celles du radar et du lidar. Compte tenu du manque de mesures satellitaires, la validation se base sur les mesures directes du lidar et du radar de l'expérience APEX-E3 réalisées au printemps 2003 où les fréquences et la performance des systèmes d'observation correspondent à celles qui vont être mesurées par le satellite EarthCARE. Les caractéristiques microphysiques des nuages et des aérosols ainsi que l'état de l'atmosphère sont produites par le modèle atmosphérique NARCM. Elles sont ensuite converties en données de réflectivité pour le radar et en données de rétrodiffusion pour lidar en utilisant le Simulateur des Instruments d'EarthCARE. Pour terminer, les résultats sont comparés aux mesures de radar et de lidar de l'expérience APEX-E3. Les champs d'aérosols simulés avec NARCM indiquent un accord important avec ceux qui sont observés, mais les propriétés microphysiques des nuages simulées ne sont pas compatibles avec les observations. Autrement dit, les résultats montrent un large désaccord entre la réflectivité observée et la réflectivité simulée en dépit du fait que ses étendues verticales sont relativement similaires. Le nuage simulé est plus mince, situé à plus haute altitude et les valeurs maximales de réflectivité dans le nuage sont environ 5-10 dBZ inférieures à celles du nuage observé. De plus, le coefficient de la rétrodiffusion simulé (sans eau liquide) au-dessous de la base et au-dessus du sommet du nuage est nettement plus faible par rapport au coefficient de rétrodiffusion observé. Il y a également, à ces deux niveaux une plus grande quantité d'eau glacée observée que dans le cas simulé par NARCM. Si la présence d'eau liquide est incluse dans le Simulateur des lnstruments d'EarthCARE, les valeurs simulées du coefficient de rétrodiffusion sont de plusieurs ordres de grandeurs supérieures à celles observées, ce qui suggère que les valeurs du contenu en eau liquide simulées par NARCM sont surestimées d'une manière significative par rapport à toutes les altitudes où le nuage observé est présent. En conclusion, l'analyse montre que la paramétrisation microphysique de Lohmann (Lohmann et Roeckner, 1996) ne possède pas la capacité de produire les quantités glace observées dans le cas de cirrostratus. Il est également constaté que le contenu d'eau glacé de NARCM est sous-estimé, et que le contenu d'eau liquide est surestimé. Les résultats de cette étude confirment donc que l'utilisation du « forward approach » a un grand potentiel dans la validation de la paramétrisation des aérosols et des nuages. Par contre, des nouvelles vérifications seront nécessaires pour accomplir le processus de validation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Validation, Rétrodiffusion de lidar, Réflectivité de radar, Simulations régionales des modèles atmosphériques.
126

Simulations du modèle régional canadien du climat, version 5 (MRCC5) en Afrique de l'Ouest : validation et sensibilité à la localisation du domaine

Tete, Kossivi Yéwougni 01 1900 (has links) (PDF)
L'Afrique de l'Ouest (AO) est une région continentale des tropiques caractérisée par une intense variation des précipitations. Les études récentes ont permis d'améliorer la compréhension de la dynamique de la mousson africaine. Ces études ont contribué à la sécurité alimentaire, à la santé publique et à la stabilité politique de la région. L'AO est touchée par des aléas climatiques extrêmes, notamment les sécheresses et les inondations, qui affectent principalement les populations majoritairement rurales. Les conséquences socioéconomiques et sanitaires (p. ex., la famine et les épidémies) ont des impacts énormes sur le quotidien des populations. Les options d'adaptation ont été prises, mais s'avèrent insuffisantes pour la sécurité alimentaire, les ressources en eau et les problèmes de santé. Ces changements poussent de nombreuses personnes à se déplacer vers des régions sécuritaires. Les études ont montré une variation significative du climat passé, actuel et futur de l'Afrique. Ces changements futurs projetés auront des effets importants sur les différents secteurs tels l'économie, la politique et la santé. Par conséquent, une meilleure connaissance des projections climatiques s'impose. Ainsi, les modèles climatiques globaux (MCG) sont utilisés pour étudier et faire des projections du climat de l'AO. La résolution spatiale des MCG est acceptable pour étudier la circulation et les changements climatiques à l'échelle planétaire, mais insuffisante à l'échelle régionale. Compte tenu de ces insuffisances, des études récentes ont été effectuées avec les modèles régionaux du climat (MRC). Les MRC sont toutefois sensibles aux conditions initiales, aux frontières latérales, à la région et à la taille du domaine. Dans la poursuite d'études précédentes sur la variabilité inter-membre, cette étude évalue les simulations effectuées avec le Modèle Régional Canadien du Climat version 5 (MRCC5), quant à l'habileté du modèle à reproduire le climat observé, ainsi que la sensibilité des simulations à la localisation du domaine de calcul. Un ensemble de quatre simulations a été réalisé pour l'année 2006, avec une résolution horizontale de 22 km (0.2°). Les simulations se distinguent les unes des autres uniquement par la localisation géographique du domaine d'intégration. Pour les précipitations, les résultats montrent que les zones convectives sont les plus sensibles à la localisation du domaine, révélant que la position du domaine influence les résultats. En général, le MRCC5 représente bien la distribution spatiale des précipitations et sa variabilité inter-saisonnière. Les faiblesses principales sont la surestimation des précipitations sur la Côte de Guinée, mais une sous-estimation dans le Sahel. Les températures simulées par le MRCC5 sont semblables à celles des réanalyses, mais la bande de température chaude dans le Sahara est plus étroite et s'étend moins vers le nord. L'advection de l'air froid d'Europe est plus forte dans les simulations que les réanalyses. Le MRCC5 présente un biais froid sur Fouta Djalon, le plateau de Jos, le massif du Hoggar et les montagnes camerounaises. Il faut remarquer que, pour le champ de température, la variabilité à la localisation du domaine (VL) est inférieure à la variabilité transitoire (VT), contrairement au cas des précipitations où elles étaient du même ordre de grandeur. Ce qui suggère que les conditions aux frontières latérales limitent la croissance de la VL de la température, mais contrôlent peu les précipitations. ______________________________________________________________________________
127

Évaluation du comportement du système de transport flexible DAS (Demand Adaptative System)

Zaidane, Tarik 09 1900 (has links) (PDF)
Aujourd'hui, l'étalement des villes engendre de nouvelles conditions de déplacements qui à leur tour induisent de nouveaux rythmes urbains. Ceux-ci fragmentent l'habituel flot synchronisé des heures de pointe et imposent aux transports collectifs une perpétuelle adaptation. Notre projet vise à apporter des solutions innovantes en termes de mobilité urbaine et d'intégration d'un nouveau mode de transport flexible appelé DAS (Demand-Adaptative System, système de la demande adaptative). L'originalité de notre projet réside dans le fait que rares sont les études qui traitent ce nouveau système de transport et nous pensons que sa prise en compte peut contribuer à améliorer significativement les services de transport actuels. L'objectif de ce mémoire est donc d'évaluer le comportement du fonctionnement du système DAS sur le plan opérationnel dans la région de la rive sud de Montréal, et ce, en présence de multiples changements (internes ou externes). Dans ce projet, l'évaluation du système DAS suit le schéma présenté par Crainic et al, (2009). Il s'agit de définir des scénarios, concevoir des lignes de transport, simuler les lignes DAS, et enfin collecter les résultats et mesurer la performance du système. Nous avons commencé par l'analyse de la mobilité géographique de la région étudiée grâce aux données de l'enquête origine-destination (2003) effectuée par le réseau de transport de Longueuil (RTL). Ces données sont ensuite explorées en utilisant le logiciel ArcMap et transformées en cartes géographiques permettant ainsi de concevoir les trois lignes de transport à simuler. Après la conception de ces lignes, les matrices de la demande et de la distance propre à chaque ligne ont été identifiées. L'étape de la simulation consiste à simuler les données de ces matrices en variant plusieurs paramètres (propres et généraux), selon trois scénarios différents, et ce, en utilisant le code établit par Crainic et al. (2005), avec le langage C++, sous le système d'exploitation LINUX. Étant donné qu'un problème technique (le code établi par Crainic et al. (2005), n'a pas pris en considération quelques critères qui sont très importants pour la simulation du système DAS au niveau de la région de la rive sud de Montréal) est survenu, il fut donc impossible de simuler les matrices de la demande et distance. Nous avons donc formulé des hypothèses sur les résultats attendus en nous basant sur certains indicateurs de performance tels que la distance parcourue, la latence, le temps final d'arrivée, etc. D'après le scénario 1, nous nous attendons à ce que la distance parcourue soit acceptable et ne représente pas un obstacle pour les usagers du service DAS alors que pour le scénario 2, nous nous attendons à ce que le système DAS intègre plus d'arrêts optionnels et réagisse bien face à l'augmentation de la demande de 25%. En ce qui concerne le scénario 3, nous pensons que la ligne est plus courte ainsi que la distance parcourue. Les arrêts optionnels ne seront pas donc tous intégrés dans le trajet, ce qui va certainement limiter le nombre des usagers dans le véhicule. D'après ces hypothèses, nous pensons qu'avec le scénario 1, le système DAS fonctionne avec une efficacité et efficience opérationnelle supérieure en comparaison avec les scénarios 2 et 3. La prise en compte de ces hypothèses permet de penser à des perspectives pour des recherches futures. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Transport, Système DAS, schéma d'évaluation (Crainic et al, 2009), code de simulation (Crainic. Teodor. et al, 2005), enquête origine-destination (2003)
128

Simulation strategies for optimal detection of regional climate model response to parameter modifications

Separovic, Leo 01 1900 (has links) (PDF)
Cette thèse vise à rechercher les configurations expérimentales optimales pour étudier la réponse des Modèles Régionaux du Climat à aire limitée (MRC) face à des perturbations de leurs paramètres. Le travail est présenté en deux parties. La première partie aborde le cas d'une comparaison entre les simulations provenant d'un MRC, où un événement météorologique ou saisonnier est mis à l'échelle dynamiquement à partir de données observées (réanalyses). Cette situation implique l'utilisation de périodes d'intégration relativement courtes. Par conséquent, la réponse obtenue dans les moyennes temporelles des simulations par rapport à des modifications aux paramètres a tendance à être noyée dans le bruit quasi-aléatoire provenant de la dynamique chaotique du MRC. La possibilité d'augmenter le rapport signal-bruit par l'application du pilotage spectral ou par une réduction de la taille du domaine est étudiée. L'approche adoptée consiste à analyser la sensibilité des moyennes saisonnières du MRC Canadien (MRCC) face à des perturbations sur deux paramètres variés un à un. Le premier contrôle la convection profonde tandis que le second régit la condensation stratiforme. Les résultats montrent que l'ampleur du bruit diminue avec la réduction de la taille du domaine ainsi que par l'application du pilotage spectral. Toutefois, la réduction de la taille du domaine produit aussi des altérations statistiquement significatives de certains signaux, ce qui favorise l'utilisation de pilotage spectral. La deuxième partie de cette thèse aborde le cas d'une comparaison entre deux simulations d'un MRC en termes du climat simulé. À cet effet, un cadre théorique est développé pour le calcul des statistiques de premier et second ordre sur la différence entre les simulations. Les statistiques de la différence sont décomposées en une composante déterministe et reproductible contrainte par les conditions aux frontières et une composante de bruit provenant de la dynamique interne du MRC. Certaines questions reliées à l'estimation de la différence des moyennes temporelles entre les simulations sont développées en détail. Par exemple, un partage optimal des ressources informatiques entre la taille d'un ensemble et la longueur de la période d'intégration, ou encore l'impact de la t aille du domaine et du pilotage spectral sur l'estimation de la réponse du modèle. Une application de ces considérations théoriques est illustrée à partir de la réponse des simulations du MRCC dont un paramètre lié à la convection profonde a été perturbé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modèle régional de climat, perturbation des paramètres, ensemble, composante reproductible, pilotage spectral, taille du domaine, différence de moyennes.
129

Simulation numérique du reformage autothermique du méthane

Caudal, Jean 15 February 2013 (has links) (PDF)
Le syngas est un mélange gazeux de CO et H2 qui constitue un intermédiaire important dans l'industrie pétrochimique. Plusieurs approches sont utilisées pour le produire. L'oxydation partielle non catalytique (POX) et le reformage à la vapeur (SMR) en font partie. Le reformage auto thermique du méthane (ATR) combine quant à lui ces deux procédés au sein d'un même réacteur. L'amélioration du rendement global du procédé ATR requiert une meilleure caractérisation du comportement des gaz au sein de la chambre. La simulation numérique apparaît comme un outil efficace pour y parvenir. Pour réduire le coût CPU, c'est généralement l'approche RANS (Reynolds Average Numerical Simulation) qui est privilégiée pour la simulation complète de la chambre. Cette approche repose sur l'utilisation de modèles, parmi lesquels le modèle de combustion turbulente, qui a pour objectif de représenter les interactions entre la turbulence et la réaction chimique au sein du mélange. Plusieurs stratégies ont été proposées pour le calculer, qui bénéficient globalement d'une large expérience pour les systèmes classiques mettant en jeu la combustion. Cependant, les flammes observées dans les réacteurs ATR présentent des propriétés assez différentes de ces configurations classiques. La validité des modèles de combustion turbulente classiques doit donc y être vérifiée. L'objectif de cette thèse est de répondre à ce besoin, en testant la validité de différents modèles de combustion turbulente. La première partie du travail a consisté à analyser les propriétés des flammes CH4/O2 enrichies en vapeur d'eau à haute pression, et a notamment permis le développement d'une méthode d'évaluation des temps caractéristiques d'un système chimique. Dans un deuxième temps, une expérience numérique à l'aide d'un code DNS a été réalisée, afin de servir de référence pour tester a priori sur des configurations ATR plusieurs modèles RANS de combustion turbulente couramment utilisés dans le milieu industriel.
130

Gestion de la complexité dans un logiciel destiné à la simulation numérique multiphysique

Huynh, Quoc Hung 25 September 2006 (has links) (PDF)
Le développement d'un logiciel de simulation numérique, en particulier lorsqu'il est destiné à la résolution de problèmes multiphysiques, implique une augmentation significative de la complexité des structures de données au fur et à mesure des enrichissements. La maîtrise de cette complexité exige une structure bien organisée et extensible. Ces enrichissements successifs introduisent des fonctionnalités intéressantes pour l'utilisateur final mais ceci, bien souvent, au prix d'une difficulté d'utilisation croissante.<br />Cette thèse aborde la problématique de la gestion de la structuration et de la complexité dans une application de simulation numérique multiphysique, par la combinaison de la programmation orientée objet et de règles métiers à l'aide de Prolog, un langage de programmation logique.<br />Nous commençons par établir un modèle de données contenant des classes abstraites qui facilitent l'héritage et l'expansion de cette structure de données. L'objectif est de permettre aux développeurs d'ajouter un nouveau modèle de données ou de modifier un modèle existant, sans remettre en cause l'existant. Un tel modèle de données nécessite des vérifications qui assurent que toutes les commandes et les constructions d'objets soient valides. Nous proposons de réaliser ces vérifications à l'aide d'un moteur de règles et non pas de manière algorithmique comme cela est fait habituellement. Ce moteur de règles, basé sur le langage de programmation logique, donne la possibilité d'exécuter la vérification, bien sûr, mais aussi la proposition et l'explication.<br />Cette approche permet d'une part de réduire la tâche du développeur et d'autre part de faciliter les opérations de l'utilisateur final.

Page generated in 0.1188 seconds