• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 264
  • 79
  • 73
  • 5
  • 1
  • 1
  • Tagged with
  • 415
  • 183
  • 162
  • 152
  • 121
  • 97
  • 86
  • 85
  • 83
  • 69
  • 42
  • 40
  • 25
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Création d'un modèle de market-timing à partir de deux modèles industriels : simulation d'une gestion de portefeuille de contrats de matières premières / Creation of a model of market-timing from two industrial models : Simulation of the management of a portfolio of commodity contracts

Bambou, Mike 31 March 2015 (has links)
Dans l’industrie, des méthodes de Maîtrise Statistique des Procédés (MSP) sont utilisées pour savoir si des pièces usinées lors d’un processus de fabrication sont non conformes aux spécifications. Les deux méthodes utilisées sont la méthode de Shewhart et la méthode EWMA (moyenne mobile à pondération exponentielle). Une adaptation de ces deux méthodes à la bourse est faite pour créer un modèle qui anticipe les cours sur les marchés à termes de matières premières. Ces deux méthodes sont utilisées simultanément, ce qui est une première. Le modèle présenté différencie plusieurs types de mouvements et plusieurs types d’investisseurs sur les marchés. C’est un modèle prudent. L’obtention de fortes performances est importante mais la diminution du risque et la limitation des pertes le sont également. Une simulation de la gestion d’un portefeuille pouvant être investi dans douze marchés à terme est faite. Ces marchés sont les suivants : le gaz naturel, le pétrole, le blé, le maïs, le soja, le bois, le jus d’orange concentré surgelé, le café, le cacao, le sucre, le coton et le cuivre. Cette simulation dans laquelle le portefeuille n’est pas « en levier » donne des résultats impressionnants. La simulation est faite du 3 janvier 2000 au 31 décembre 2013. Le capital initial est de $ 10 000 000 et à la fin de la simulation il est de $ 189 868 766. Le taux de rendement actuariel est de 23%. La seule rentabilité annuelle négative est celle de 2013 (-0.5%) et la meilleure est celle de 2010 (67%) La volatilité annualisée est de 17%. Le ratio d’information est exceptionnel : 0.85 ! La capacité au market-timing est de 47%. Ce pourcentage est ordinaire mais il recouvre le fait que la performance moyenne d’une position gagnante est de 17% tandis que celle d’une position perdante est de -6%. La performance d’une position gagnante compense, en moyenne, celle de trois positions perdantes. / Methods of Statistical Process Control (SPC) are used in the industrial sector to know if work pieces are conforms to specifications. Two methods are used: the Shewhart method and the Exponentially-weighted moving average method (EWMA). An adaptation of these methods to the financial markets is done to create a model which anticipates prices on commodities markets. Both methods are used simultaneously which is the first time. The developed model distinguishes several types of market movements and various types of investors. It is a safe model. Obtaining strong performances is important but reducing risk and limiting losses are too. A simulation of the management of a portfolio which may be invested of twelve commodities is done. The markets are: natural gas, oil, wheat, corn, soybeans, lumber, frozen concentrated orange juice, coffee, cocoa, sugar, cotton and copper. We decide to simulate a portfolio without “leverage” and results are impressive. The simulation is done from January 3rd 2000 to December 31th 2013. The initial capital of the portfolio is $ 10,000,000 and at the end of the simulation is $ 189,868,766. The rate of annual return is 23%. The only negative annual return is that of 2013 (-0.5%) and the best is that of 2010 (67%). The annualized volatility is 17%. The information ratio is exceptional: 0.85! The ability to market timing is 47%. This percentage is ordinary, but the average performance of winning positions is 17% while that of a losing position is -6%. The performance of a winning position, on average, corrects that of three losing positions.
52

Optimisation des procédés de mise en forme par les réseaux de neurones artificiels

Chamekh, Abdessalem 30 May 2008 (has links) (PDF)
Ce travail concerne la modélisation et l'optimisation des procédés de mise en forme par les Réseaux de Neurones Artificiels. Etant donnée que les méthodes classiques sont très coûteuses en temps de calcul et divergentes pour des problèmes présentant beaucoup des paramètres à contrôler, notre contribution consiste à développer une méthode de modélisation et d'optimisation plus rapide et efficace. Nous avons fait appel à une étude paramétrique pour coupler un programme basé sur la technique des RNA avec un code de calcul par la méthode des éléments finis. Néanmoins pour être viable, la méthode de modélisation et d'optimisation développé a été appliquée avec succès à des procédés de mise en forme complexes et variés. Elle a été testée en premier lieu pour la modélisation et l'optimisation du procédé d'emboutissage d'un flan circulaire et dans un second lieu pour l'identification des paramètres du matériau à partir du procédé d'hydroformage. La méthode a été aussi comparée avec une méthode d'optimisation classique de plusieurs points de vue. Il a été constaté le long de cette étude que notre démarche présente une grande potentialité à modéliser des relations qui sont difficile à les décrire avec des modèles mathématiques simple. Elle est aussi, rapide et parallélisable. La qualité des résultats obtenus est convaincante. Ce travail mène à des perspectives plus prometteuses. Elles peuvent être vulgarisées et exploitées dans d'autres applications.
53

Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabrication

Alegret, Cyril 30 October 2006 (has links) (PDF)
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits.<br />Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run).
54

Diagnostic et surveillance des processus complexes par réseaux bayésiens

Verron, Sylvain 13 December 2007 (has links) (PDF)
Cette thèse porte sur la surveillance (détection et diagnostic) des procédés multivariés par réseaux bayésiens. Ceci permet l'unification dans le même outil, un réseau bayésien, de plusieurs méthodes dédiées à la surveillance des procédés, telles que les cartes de contrôles multivariées, l'analyse discriminante ou bien la méthode MYT. Le premier chapitre expose les différents points clés de la surveillance des procédés, en étudiant les diverses approches permettant de réaliser celle-ci. Des méthodes de surveillance supervisées et non-supervisées sont présentées et une étude de différents classifieurs pour la surveillance est effectuée. Le choix d'un classifieur se porte alors sur les réseaux bayésiens. Le second chapitre est l'objet d'une présentation plus approfondie des réseaux bayésiens et des extensions possibles et intéressantes de ce genre d'outil dans le contexte de la surveillance des procédés. Puis, un état de l'art des méthodes de surveillance ou de diagnostic basées sur les réseaux bayésiens est étudié. Le troisième chapitre expose les contributions apportées au domaine de la surveillance des procédés par réseaux bayésiens. Les contributions apportées se répartissent en trois parties : détection, diagnostic supervisé et diagnostic nonsupervisé. En s'appuyant sur ces contributions, la structure complète d'un réseau bayésien dédié à la surveillance des procédés est proposée. Le dernier chapitre présente une application de la méthode proposée sur un exemple classique : le procédé Tennessee Eastman. Les performances du réseau en terme de détection et de diagnostic sont évaluées. Finalement, les conclusions et perspectives de l'approche proposée sont émises.
55

instrumentation, modélisation et commande des procédés alimentaires

Courtois, Francis 11 June 2004 (has links) (PDF)
Agé de 39 ans, Francis Courtois est actuellement maître de conférences à l'ENSIA de Massy. C'est dans cette école qu'il a obtenu un diplôme d'ingénieur en 1988, puis un doctorat en 1991. Cette même année, il y est recruté comme maître assistant stagiaire.<br /><br />Le domaine d'activité du candidat est l'industrie agroalimentaire. Il s'intéresse aux procédés utilisés par cette industrie afin de mieux comprendre leur fonctionnement et d'améliorer leurs performances. <br /><br />Francis Courtois ne s'est pas contenté d'une présentation linéaire de ses activités de recherche. Tout au long des 72 pages de son mémoire, il fait la synthèse de ses seize années d'activité et il nous présente les réflexions que son expérience lui inspire.<br /><br />Le premier chapitre du mémoire décrit le cadre dans lequel Francis Courtois a exercé son activité, essentiellement l'équipe de Génie Industrielle Alimentaire de l'ENSIA. Dans ce premier chapitre, il définit également son domaine de compétence et son mode d'intervention. Un point saillant de cette analyse est la diversité des problèmes et des solutions auxquelles on est confronté quand on étudie le fonctionnement d'un procédé avec une double compétence en génie des procédés et en automatique. Il reste une grande part d'empirisme et de savoir-faire dans le choix des méthodes à mettre en oeuvre pour traiter chaque problème particulier : il faut être pragmatique, compétent et habile.<br /><br />Le deuxième chapitre présente les différents procédés sur lesquels le candidat a travaillé : séchoirs sous toutes leurs formes (15), procédé de friture (1), réfrigération (1), micro-filtration tangentielle (1), décantation centrifuge (0). Les chiffres entre parenthèses indiquent le nombre d'articles publiés dans des revues avec comité de lecture dans chacun des cas. Il apparaît clairement que le séchage est le cœur dur des activités de Francis Courtois, et qu'il a ensuite diversifié ses objets d'études.<br /><br />Le troisième chapitre aborde un point particulier que l'on rencontre très souvent dans les industries agroalimentaires : l'analyse des mécanismes de transformation de la matière exprimés en terme de transferts de matière et de chaleur couplés à des réactions chimiques ne permet pas de caractériser complètement les produits obtenus. Ces produits sont très souvent des solides et il existe une zone d'ombre autour de la description de la structure de ces solides et de son évolution en cours de traitement. Ceci conduit à la définition de critères permettant de caractériser la "qualité" des produits, critères qui sont bien souvent en relation avec l'usage que l'on fait du produit. Qualité amidonnière du maïs, fissuration du riz et "prise d'huile" lors de la friture de banane plantain et de coco sont trois exemples de cette approche. Prédire l'évolution d'un critère de qualité en fonction de la conduite d'un procédé est un problème très actuel qui dépasse le cadre des industries agroalimentaires.<br /><br />Le quatrième chapitre traite de la modélisation des transferts qui est au centre des compétences du candidat. En comparant une approche compartimentale classique qu'il maîtrise fort bien à des méthodes à base de logique floue ou de réseaux de neurones, Francis Courtois montre qu'il sait diversifier les moyens à mettre en oeuvre pour s'adapter au mieux à l'objectif fixé et aux contraintes de chaque étude.<br /><br />Dans les chapitres cinq et six, le candidat présente succinctement divers travaux auxquels il a participé comme acteur principal ou comme encadrant. La liste suivante donne une idée de la diversité des thèmes abordés :<br /><br />- Réalisation d'un logiciel de simulation du comportement statique d'un séchoir de maïs. Ce logiciel est commercialisé.<br />- Recherche du réglage optimal du profil de température et d'humidité, T¬a(t) et Ha(t), de l'air envoyé dans un séchoir opérant en discontinu.<br />- Mesure indirecte de la teneur en eau dans un séchoir à cylindre, du collage des poudres dans un séchoir par atomisation, de la teneur en eau lors de la friture.<br />- Développement d'un capteur optique pour mesurer la fissuration du riz.<br />- Divers problèmes de commande.<br /><br />Le cadre exact dans lequel chacun de ces exercices s'est déroulé n'est pas toujours très explicite. On touche ici aux limites imposées par le choix d'une présentation synthétique des travaux, choix que l'on a trouvé fort judicieux par ailleurs. Ce défaut est corrigé par la présence de références bibliographiques très claires permettant au lecteur d'approfondir les points qui l'intéressent. On peut aussi retenir de cette diversité la marque d'une grande curiosité scientifique et technologique qui a amené Francis Courtois à explorer de nombreuses techniques de développement et de conduite des procédés.<br /><br />Le septième chapitre intitulé "Recherche en EAO" rappèle que Francis Courtois est aussi un enseignant et qu'il sait utiliser l'Internet.<br /><br />Le huitième chapitre apporte une solide conclusion à l'ensemble du texte.<br /><br />A la lecture de ce mémoire il apparaît clairement que le candidat à une vision très complète de ce qu'est un procédé, tant du point de vue des mécanismes fondamentaux mis en jeu que de la qualité des produits. Il intègre sans problème le fonctionnement dynamique et le régime permanent. Il a également une bonne vision des problèmes associés aux mesures, ce qui lui permet d'aborder avec efficacité la conduite des procédé. Il a enfin développé une très bonne maîtrise de l'outil informatique à travers ses différents modes d'utilisation. De ce point de vue, le rapporteur estime que Francis Courtois est au cœur du génie des procédés actuel, qu'il en maîtrise de nombreuses facettes et qu'il aurait tort de se positionner à la marge de la discipline.<br /><br />Cette activité de recherche a donné lieu à une vingtaine de publications dans des revues à comité de lecture et à une cinquantaine de conférences dans des congrès et colloques internationaux. Par ailleurs, Francis Courtois a déjà participé à l'encadrement de 8 thèses : à l'évidence il est apte à diriger des recherches. Le rapporteur donne donc un avis très favorable à la présentation orale de ces travaux en vue d'obtenir une Habilitation à Diriger des Recherches.
56

SURVEILLABILITÉ STRUCTURELLE ET PLATITUDE POUR LE DIAGNOSTIC DES MODÈLES BOND GRAPH COUPLÉS

El Osta, Wassim 06 December 2005 (has links) (PDF)
Des modules de supervision à base de modèle Bond Graph (BG) sont conçus pour les procédés énergétiques présents dans les industries à risques. Le BG comme outil multidisciplinaire est bien adapté à cause de la mise en jeu des énergies de nature diverse. Cet aspect de couplage (énergie, chimique...) rend les modèles dynamiques fortement non linéaires.<br />La génération systématique de modèles linéarisés des procédés complexes est considérée, le BG global d'une installation est directement obtenu à partir du Plan d'Instrumentation Détaillé (PID). Ces modèles sont valides car les processus thermofluides réels sont en général régulés autour d'un point de fonctionnement.<br />Les paramètres (coefficients hydrauliques, coefficients d'échange thermique...) n'étant pas toujours connus, la détermination directe des propriétés structurelles (commandabilité, observabilité, surveillabilité) des BGs sans<br />calcul préalable est utile pour la FDI (Fault Detection and Isolation).<br />Dans un premier temps, les modèles linéarisés sont exploités pour l'étude de la surveillance. Avant n'importe quelle implémentation industrielle (ou ajout de capteurs), la surveillabilité des composants, des actionneurs et des capteurs est considérée sans générer les Relations de Redondance Analytiques (RRA).<br />Dans un second temps, le modèle bond graph non linéaire est utilisé pour la conception des systèmes de<br />surveillance. En génie des procédés, il est possible d'identifier la catégorie des composants (actionneurs<br />hydrauliques, capteurs thermiques, etc..) à laquelle appartient l'élément défaillant. La surveillabilité de défauts simultanés d'actionneurs est considérée par une approche de platitude directe et générique.
57

Surveillance de procédés à base de méthodes de classification : conception d'un outil d'aide pour la détection et le diagnostic des défaillances

KEMPOWSKI, Tatiana 14 December 2004 (has links) (PDF)
Les travaux présentés se situent dans le domaine de l'aide à la décision pour la surveillance de systèmes complexes tels que les procédés chimiques. Pour de tels procédés il n'est pas toujours possible de disposer d'un modèle mathématique ou structurel du système considéré. De ce fait, d'autres types d'approches telles que les méthodes de classification, doivent être envisagées pour l'identification des états fonctionnels dans lesquels le système peut se trouver. Sur la base de telles méthodes notre travail présente une stratégie permettant de construire, à partir de données historiques et de données récupérées en ligne, un modèle discret (états/transitions) du comportement du processus et d'identifier des situations anormales issues des dysfonctionnements. Cette stratégie consiste à générer un premier modèle de référence, sous la forme d'un automate à états finis, du procédé à partir d'un apprentissage, supervisé ou non. Ce modèle est ensuite validé et complété par l'expert. La reconnaissance en ligne permet de suivre l'évolution temporelle des modes de fonctionnement déjà identifiés. Dans le cas où une transition amène à la non-reconnaissance d'un certain nombre d'éléments, c'est-à-dire à la détection d'une déviation par rapport à un comportement connu, l'objectif est de caractériser cette nouvelle situation. Pour cela, nous proposons de faire un nouvel apprentissage hors ligne prenant en compte ces éléments non reconnus. Les nouvelles classes créées permettent, toujours en interaction avec l'expert, de fixer la nature de la déviation observée. Dans le cas d'une défaillance, une analyse portant sur les descripteurs et le profil des classes permet l'isolation de la défaillance. Ces informations sont transmises à l'opérateur pour l'assister dans son diagnostic. Un outil d'aide à la décision pour la surveillance s'appuyant sur cette stratégie a été mis en place. Cet outil appelé SALSA repose sur la méthode LAMDA. Il s'agit d'une méthode de classification avec apprent issage et reconnaissance de formes qui permet l'analyse de données multi-variables et qui utilise des notions de la logique floue pour introduire le concept d'adéquation d'un élément à une classe. Dans le cadre du projet européen CHEM les principaux aspects de nos travaux et les résultats obtenus ont été illustrés sur des unités industrielles de nature différente.
58

Étude des fils électrodes pour l'usinage par étincelage érosif

Ly, Michel 07 September 2005 (has links) (PDF)
Il s'agit de relier l'avantage en termes de vitesse d'usinage, que procurent des revêtements complexes de phases du système cuivre zinc oxygène sur les fils-électrodes de laiton, a la thermodynamique de l'arc électrique.Il apparait que les fils revêtus usinent plus vite que les fils nus, pour la même intensité, et ce malgré une tension d'arc plus faible. Les tensions d'arc moyennes de différents fils, employés en polarité négative, ont été mesurées, comparées aux données bibliographiques, et modélisées.La tension d'arc d'une cathode est d'autant plus faible que la pression de vapeurs métalliques qu'elle généré est élevée. Une faible chute de potentiel a la cathode limite son échauffement, donc son érosion. Une pression élevée pendant l'arc permet éjecter une plus grande proportion de la matière en fusion présente a la surface des électrodes a la fin de l'arc d'usinage.Des mesures de pertes de masse sur différents fils électrodes et sur différentes pièces confirment notre thèse.
59

Étude de l'endommagement d'un superalliage monocristallin à base de nickel induit par microperçage laser milliseconde

Revuz, Nicolas 17 December 2010 (has links) (PDF)
L'amélioration du rendement d'un moteur d'avion est reliée à l'élévation de la température de combustion. Les progrès de l'industrie aéronautique de ces 30 dernières années ont permis l'augmentation de cette température. Les aubes de turbine qui en subissent directement les effets ont vu leur métallurgie et leur géométrie évoluer avec le temps. Aujourd'hui, elles sont en superalliage monocristallin à base de nickel. Les barrières thermiques, constituées d'une sous-couche métallique et d'un dépôt céramique ont été développées pour protéger la surface de l'aube de la température et de l'environnement agressif (oxydation, corrosion à chaud). Parallèlement à l'évolution des matériaux, la géométrie de l'aube a également été adaptée. Un circuit de refroidissement interne permet la circulation puis l'éjection d'air par des micro-trous créant ainsi une fine couche protectrice à la surface de l'aube. Depuis des années, ces trous (diamètre de 0,45mm pour une profondeur comprise entre 1,5 et 3 mm) sont percés par laser impulsionnel ou par électroérosion favorisant ainsi le temps d'usinage. <br/>Ce travail porte sur l'étude du perçage laser impulsionnel milliseconde qui chauffe le matériau irradié, le fond puis vaporise une couche superficielle de liquide. La pression résultant, dite pression de recul, est la force motrice du perçage. L'objectif de cette étude est de définir et caractériser l'endommagement subi par le matériau après perçage laser. Les phénomènes d'éjection de la matière sont modélisés par éléments finis par l'adaptation d'un code initialement développé pour le soudage laser. Ce modèle est comparé à des mesures expérimentales de vitesse d'éjection liquide, de pression de recul ainsi qu'à des observations micrographiques fines qui montrent une couche de matière resolidifiée dont la microstructure est différente de celle du superalliage. Aujourd'hui, les modèles numériques utilisés pour prédire la durée de vie des pièces perforées ne prennent en compte que la dimension des trous donc le gradient de contrainte résultant. Les essais de fatigue à haute température réalisés dans cette étude avec deux types de perçage laser (une source femtoseconde et une source milliseconde) permettent de mettre en évidence l'influence de la modification de la matière induite par le procédé de perçage sur le comportement mécanique d'éprouvettes percées. Une étude de la vitesse de fissuration combinée à l'étude des faciès de rupture permet de comprendre les phénomènes d'amorçage et de propagation de fissure courte. Elle montre que l'engouement actuel pour les sources lasers ultrarapides (c'est-à-dire pico/femtoseconde), qui ne modifie pas la microstructure du perçage de la même façon qu'un laser classique (milliseconde) n'est pas obligatoirement justifié pour ce type d'application.
60

Méthodologie d'analyses énergétique et exergétique des procédés de transformation de produits dans l'industrie

Abou Khalil, Bachir 12 December 2008 (has links) (PDF)
Les émissions de Gaz à Effet de Serre, la raréfaction prochaine des énergies fossiles et l'augmentation de leurs prix ont conduit la France à mettre en place, entre autres mesures, le plan des Certificats d'Economie d'Energie. Ce plan oblige les fournisseurs d'énergie, notamment EDF, à préparer des actions d'économies d'énergie chez leurs clients. Pour les petites et moyennes industries, les coûts d'analyses énergétiques poussées peuvent être hors de leurs moyens. Le but est donc de développer une méthodologie limitant le temps d'analyse ainsi que le type et la quantité des données nécessaires. Les méthodologies existantes ont été revues en détail, et des leçons essentielles ont été tirées sur leurs avantages et inconvénients. Une méthodologie a été développée, appelée Analyse Energétique et Exergétique des Procédés de transformation (AEEP). Cette méthode comprend trois étapes, dont la première, appelée Analyse Procédé (AP), est fondamentale et constitue un travail amont effectué une fois par type de produit. Cette étape consiste en la détermination de l'Energie Minimale Requise pour la transformation de la matière première en produit final, pour en tirer le Meilleur Procédé de Transformation. L'AP a été appliquée à plusieurs opérations industrielles unitaires, montrant ainsi la généricité et la systématicité de la méthode. Ensuite, une application directe de la méthodologie AEEP est effectuée sur une unité de fabrication de fromages. Les résultats ont montré que cette méthode est applicable à tous les niveaux d'audit (à faible et haut coûts). Elle permet aussi l'identification de solutions d'améliorations de la performance énergétique du système de production, non identifiables par les méthodes classiques.

Page generated in 0.0454 seconds