• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 34
  • 4
  • Tagged with
  • 91
  • 39
  • 26
  • 22
  • 21
  • 18
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude géométrique des problèmes d'optimisation en présence de contraintes

Lobry, Claude 20 June 1967 (has links) (PDF)
.
2

Contribution à la modélisation et à la conception optimale des turbo-alternateurs de faible puissance.

Petrichenko, Dmitry 10 July 2007 (has links) (PDF)
Dans les complexes industriels, les cahiers des charges sont de plus en plus exigeants en terme de performances et d'optimisation économique des installations de production électrique. Dans certains cas, oncherchera à minimiser les courants de court-circuit pour soulager les organes de coupure ; au contraire dans d'autres cas, on veillera à limiter les chutes de tension transitoires. Les moyens de calcul rapides permettant de dimensionner les machines, basés sur des modèles analytiques n'ont pas toujours la précision nécessaire. Les méthodes de calcul par Eléments Finis permettent d'optimiser des parties locales de la machine, mais deviennent trop lourds d'utilisation s'agissant de dimensionner des équipements pour répondre aux appels d'offre de matériel de moyenne puissance. La méthode proposée par L2EP de Lille et le MPEI de Moscou, basée sur l'emploi des réseaux de perméances, a retenu l'attention de Jeumont SA pour développer un nouveau logiciel dans le cadre du CNRT « Réseaux et Machines du Futur » de Lille. Cette méthode permet de conserver la rapidité d'exploitation et d'améliorer la précision de calcul en adaptant facilement le réseau de perméances à la configuration étudiée. Le travail développé est ouvert aux méthodes d'optimisation ainsi qu'à la prise en compte de régimes dynamiques. Dans ce travail, un modèle de turbo-alternateurs a été présenté, basé sur la méthode de contour de dents. L'outil ?TurboTCM' développé sous Matlab permet de générer de façon automatique le réseau de perméances. Des simulations ont été comparées aux résultats expérimentaux et ont montré la bonne correspondance des résultats. Puis, certaines caractéristiques de sortie sont données montrant les possibilités de l'outil. En réalisant un bon compromis entre le temps de calcul et la précision, nous pouvons envisager le couplage avec des outils d'optimisation. Dans un premier temps, une étude de sensibilité est fournie sachant que celle-ci peut être étendue à n facteurs influents. Les perspectives sont nombreuses sur l'application d'un tel outil. Il nous reste à valider celui-ci sur ?n' turbo-alternateurs de puissances différentes mais aussi avec un nombre de pôles différents. Un de nos objectifs à court terme est de coupler l'outil avec la méthode des plans d'expériences, permettant de considérer un grand nombre de facteurs, une première étape de ?Screening ou criblage' permettant de déduire les facteurs influents.
3

Identification par analyse inverse du comportement mécanique des polymères solides : applications aux sollicitations multiaxiales et rapides

Tillier, Yannick 09 March 1998 (has links) (PDF)
Les constructeurs de structures polymères doivent leur assurer la tenue que leur utilisation impose (résistance au choc). De façon à remplacer les tests "vraie matière / vraie grandeur" coûteux et laborieux, il est courant d'utiliser des codes de simulation numériques, qui requièrent toutefois l'utilisation de lois de comportement fiables. Le premier chapitre, consacré à l'établissement d'un bilan des lois de comportement les plus aptes à reproduire le comportement global des polymères solides, est suivi d'une étude des méthodes classiquement employées pour dépouiller les essais rhéologiques. Trois polymères différents (un polyéthylène semi-cristallin, un polycarbonate amorphe et un polypropylène copolymère) sont testés afin d'établir une certaine typologie de leurs réponses. Il en ressort que les hypothèses inhérentes aux méthodes de dépouillement analytiques ne sont valables que dans un domaine restreint de sollicitations (basses vitesses, sollicitations uniaxiales...). La méthode d'identification par analyse inverse envisagée dans le chapitre III permet d'éviter la formulation d'hypothèses trop fortes. Elle repose sur l'utilisation d'un logiciel de simulation thermomécanique par éléménts finis des essais rhéologiques, auquel est couplé un module d'optimisation (basé sur la méthode itérative de Gauss-Newton). Les paramètres sont obtenus en minimisant l'écart entre le calcul et l'expérience (fonction "coût"). Après une validation numérique (chapitre IV) de l'algorithme de minimisation utilisé (convergence et stabilité), la technique décrite est finalement appliquée avec succès à chacun des polymères étudiés (chapitre V), dans le cas d'essais de traction "moyennes vitesses". L'écart entre les observables expérimentales et simulées diminue sensiblement par rapport aux méthodes de dépouillement classiques. L'emploi d'une fonction coût mixte (force + diamètre) permet en outre d'identifier simultanément la rhéologie en traction d'un polypropylène et le coefficient tribologique caractérisant le glissement des éprouvettes dans les mors. Le logiciel met également en évidence les limites de la loi de comportement utilisée en traction, dans le cas d'essais multiaxiaux. Moyennant une modification de la loi, l'analyse inverse rend possible l'identification du comportement au choc du polymère à partir d'essais de poids tombant instrumenté. La possibilité d'extrapoler le comportement à d'autres conditions opératoires fait de ce logiciel un outil prédictif.
4

Génération automatique de problèmes d'optimisation pour la conception et la gestion des réseaux électriques de bâtiments intelligents multi-sources multi-charges

Warkozek, Ghaith 07 September 2011 (has links) (PDF)
Le bâtiment devient de plus en plus un système complexe où les flux énergétiques doivent être gérés en fonction des usages : on parle de bâtiments intelligents. Il s'ensuit une complexité croissante pour les concepteurs, qui doivent s'intéresser autant au bâtiment lui-même (plusieurs sources électriques et multiplication des charges) qu'à ses équipements, sa gestion énergétique mais aussi aux interactions avec l'environnement extérieur (flux d'informations exogènes sur le marché d'énergie, prix d'achat et de revente, subventions à l'auto-consommation, etc...). Il est désormais nécessaire de coupler la phase de conception avec celle de gestion énergétique du bâtiment. Les travaux de cette thèse visent à proposer une démarche méthodologique permettant de formuler automatiquement les problèmes d'optimisation exploitables autant en conception qu'en exploitation du système bâtiment. La démarche est basée sur les concepts issus de l'ingénierie dirigée par les modèles (IDM).
5

Optimisation de systèmes de production intermittents non conventionnels couplés au réseau électrique

Nguyen Ngoc, Phuc Diem 20 April 2011 (has links) (PDF)
L'énergie éolienne jouant un rôle de plus en plus important dans le réseau électrique, elle ne peut plus être considérée comme une source d'énergie marginale. Par conséquent, l'impact sur le réseau de l'intermittence, inhérente à ce type d'énergie devient non négligeable. L'utilisation du stockage est une des principales solutions à ce problème d'intégration. Ce travail porte sur l'optimisation du système éolien/stockage en considérant la dynamique de l'éolien, la capacité de stockage et l'interaction avec le réseau. L'objectif consiste à répondre aux exigences du réseau en limitant les fluctuations, à fournir des services-systèmes tout en mettant en avant la rentabilité économique du système. La méthode de gestion proposée s'appuie sur deux niveaux de pilotage : l'anticipation et la gestion réactive. La première phase consiste à utiliser des informations de prévisions (météorologiques, contraintes du réseau, conditions du marché électrique...) afin de définir par avance le programme de fonctionnement optimal du système de stockage. La deuxième phase étudie le fonctionnement en temps réel, où le système doit faire face aux perturbations et respecter les règles du mécanisme d'ajustement. Le problème est complexe avec de nombreuses variables de contrôle discrètes et continues. La Programmation Mixte Linéaire (PML) est utilisée pour résoudre efficacement le problème. La stratégie de fonctionnement optimale proposée sera validée sur un simulateur hors temps réel et un simulateur en temps réel.
6

Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies cardiaques en électrocardiographie

Dubois, R. 27 January 2004 (has links) (PDF)
L'enregistrement Holter (enregistrement électrocardiographique de 24 heures) est un examen très fréquemment utilisé en cardiologie. Parmi les 100 000 battements enregistrés, seul un petit nombre d'entre eux peut traduire la présence d'une pathologie sous-jacente; l'analyse automatique est donc indispensable. Les outils actuels fonctionnent sur le principe d'un système expert, robuste, mais peu adaptatif et essentiellement limité à la détection et la classification des signaux de dépolarisation ventriculaire. Une analyse plus détaillée des signaux cardiaques permet une bien meilleure détection de nombreuses pathologies, en particulier grâce à l'extraction des signaux d'origine auriculaire et des ondes de repolarisation. Nous proposons dans cette thèse une méthode de décomposition mathématique originale des battements cardiaques sur une base de fonctions appelées "bosses". Contrairement aux régresseurs classiques utilisés en modélisation (ondelettes, RBF...), les bosses sont des fonctions prévues pour modéliser chaque onde caractéristique du battement cardiaque (les ondes P, Q, R, S et T). Chaque battement de l'enregistrement est ainsi décomposé en bosses; puis les labels médicaux P, Q, R, S et T leur sont attribués par des classifieurs (réseaux de neurones). Disposant alors de l'emplacement et de la forme des toutes les ondes caractéristiques pour l'ensemble de l'ECG, nous pouvons désormais repérer automatiquement des anomalies comme l'inversion de l'onde P, jusqu'alors non détectées par les algorithmes sur les enregistrements de longues durées. Cette approche a été testée sur de nombreuses bases de données et a montré toute son efficacité par rapport aux méthodes actuelles dem détection d'anomalies
7

GBNM : un algorithme d'optimisation par recherche directe. Application à la conception de monopalmes de nage

Luersen, Marco Antonio 14 May 1993 (has links) (PDF)
Dans ce travail, une méthode d'optimisation à coût fini, essentiellement locale,mais qui devient globale lorsque le nombre d'analyses croît est développée. La ± globalisation α vient de ré-initialisations probabilisées de recherches locales prenant en compte les points de départ et de convergence passés. L'optimiseur local est une version améliorée de la méthode de Nelder-Mead, où les variables sont bornées, où les contraintes d'inégalité sont prises en compte par pénalisation adaptative, et où les dégénérescences du simplexe sont traitées par ré-initialisation. Cette méthode, appelée ± Globalized and Bounded Nelder-Mead α (GBNM), est testée sur des fonctions multimodales et des problèmes de conception de stratifiés composites. Puis, des applications plus complexes sont traitées avec GBNM : l'optimisation de la raideur de flexion et l'identification des positions des sauts de plis de monopalmes de nage.
8

Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul / Efficient Hardware Implementations of LDPC Decoders, through Exploiting Impreciseness in Message-Passing Decoding Algorithms

Nguyen Ly, Thien Truong 03 May 2017 (has links)
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées. / The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance.
9

Machines à commutation de flux à grand nombre de phases : modèles comportementaux en mode dégradé et élaboration d’une stratégie de commande en vue de l’amélioration de la tolérance aux pannes / Flux switching machines with high phases number : behavioral models in degraded mode and development of a control strategy to improve fault tolerance

Ben Sedrine, Emna 28 November 2014 (has links)
Dans cette thèse, nous nous sommes intéressés à l'étude des modèles comportementaux en mode dégradé des machines pentaphasées à commutation de flux (MCF pentaphasée). Tout d'abord, une comparaison des performances électromagnétiques de cette machine à une machine triphasée équivalente est tout d'abord effectuée. Ces performances sont calculées par la méthode des Eléments Finis (EF 2D) et validées expérimentalement. Les résultats ont montré l'apport de la machine pentaphasée avec un couple massique plus élevé, une ondulation de couple plus faible, un courant de court-circuit plus faible et sa capacité à tolérer des défauts de phases. L'étude de la tolérance aux ouvertures de phases est alors élaborée pour cette MCF pentaphasée. Le comportement de la machine en cas d'ouvertures de phases (du point de vue du couple moyen, de l'ondulation de couple, des pertes Joule et du courant dans le neutre) est présenté. Ensuite, des méthodes de reconfiguration en vue d'améliorer le fonctionnement sont proposées dont une reconfiguration minimale permettant de se retrouver avec une alimentation équivalente à celle d'une machine tétraphasée ou triphasée, un calcul analytique des courants optimaux permettant d'annuler à la fois le courant du neutre et l'ondulation du couple tout en assurant le couple moyen, et finalement une reconfiguration assurée par un algorithme génétique d'optimisation qui est un algorithme non-déterministe multi-objectifs et multi-contraintes. Diverses combinaisons des différents objectifs et contraintes sont, dans ce cadre, effectuées et les courants optimaux sont injectés dans le modèle EF 2D de la machine pour vérifier si les performances ont été améliorées. Le modèle analytique du couple pris en compte dans l'algorithme d'optimisation est alors révisé pour prendre en compte l'influence du mode dégradé. Les différentes solutions du front de Pareto sont analysées et les performances électromagnétiques sont bien améliorées. Cela est vérifié par les calculs EF 2D et suivi d'une validation expérimentale. L'influence des défauts sur les forces magnétiques radiales est également analysée. Dans une seconde partie, l'étude de la tolérance de la machine pentaphasée à commutation de flux aux défauts de courts-circuits est effectuée. Les premières étapes d'isolation des défauts de courts-circuits sont proposées. Par la suite, les courants de courts-circuits, prenant en compte l'effet reluctant de la machine, sont calculés analytiquement et leurs effets sur les performances de la machine sont analysés. Les reconfigurations sont aussi calculées par l'algorithme génétique d'optimisation et les nouvelles références des courants permettent d'améliorer le fonctionnement en mode dégradé. Tous les résultats sont validés par la méthode des EF 2D et expérimentalement. En conclusion, des comparaisons entre la tolérance aux défauts d'ouvertures et de courts-circuits de la machine pentaphasée à commutation de flux sont effectuées et ont permis de conclure quant au fonctionnement de cette machine en modes sain et dégradé avec et sans correction. Les résultats analytiques, numériques et expérimentaux ont montré la bonne efficacité de la commande proposée pour l'amélioration de la tolérance aux défauts d'ouvertures et courts-circuits de phases. / In this thesis, we are interested in the study of a five-phase flux switching permanent magnet machine (five-phase FSPM machine) behavior in healthy and faulty mode. First, a comparison of electromagnetic performances between this machine and an equivalent three-phase machine is carried out. These performances are calculated by a Finite Element (FE 2D) model and validated by experiments. Results showed the five-phase machine contribution with a higher torque density, lower torque ripples, lower short-circuit current and ability to tolerate phases faults. The study of open-circuit tolerance is then developed for this five-phase FSPM. The behavior of the machine (the average torque, torque ripples, copper losses and the current in the neutral) in the case of open-circuit on a single and two adjacent and non-adjacent phases is presented. Then reconfiguration methods to improve the operation are proposed including a minimum reconfiguration allowing to end up with a feeding equivalent to that of a three-phase or a four-phase machine, an analytical calculation of optimal currents to cancel both the neutral current and torque ripples while ensuring the average torque, and finally a reconfiguration performed by a genetic optimization algorithm which is a non-deterministic algorithm multi-objective functions and multi-constraints. In this context, various combinations of different objectives and constraints are proposed and optimal currents are injected into the 2D FE model of the machine to see if performances have been improved. The analytical model of the torque used in the optimization algorithm is then revised to take into account the influence of the degraded mode. Different solutions of Pareto front are analyzed and electromagnetic performances are improved. This is verified by FE 2D calculations and followed by experimental validation. Faults impact on the radial magnetic forces is also analyzed. In the second part of this work, the study of the five-phase FSPM machine tolerance to short-circuit faults is performed. First steps of the faults isolation are proposed. Thereafter, short-circuit currents, taking into account the reluctance machine impact, are calculated analytically and their effects on machine performances are analyzed. Reconfigurations are also calculated by the genetic algorithm optimization and new references currents improved the degraded mode operation. All results are validated by the FE 2D calculation and experimentally. In conclusion, comparisons between fault-tolerance to phases openings and short-circuits of the five-phase FSPM machine are performed. Results led to conclude regarding the operation of this machine in healthy and degraded modes with and without correction. Analytical, numerical and experimental results showed good efficiency of the proposed control to improve fault-tolerance to phases openings and short-circuits.
10

Contributions to Convergence Analysis of Noisy Optimization Algorithms / Contributions à l'Analyse de Convergence d'Algorithmes d'Optimisation Bruitée

Astete morales, Sandra 05 October 2016 (has links)
Cette thèse montre des contributions à l'analyse d'algorithmes pour l'optimisation de fonctions bruitées. Les taux de convergences (regret simple et regret cumulatif) sont analysés pour les algorithmes de recherche linéaire ainsi que pour les algorithmes de recherche aléatoires. Nous prouvons que les algorithmes basé sur la matrice hessienne peuvent atteindre le même résultat que certaines algorithmes optimaux, lorsque les paramètres sont bien choisis. De plus, nous analysons l'ordre de convergence des stratégies évolutionnistes pour des fonctions bruitées. Nous déduisons une convergence log-log. Nous prouvons aussi une borne basse pour le taux de convergence de stratégies évolutionnistes. Nous étendons le travail effectué sur les mécanismes de réévaluations en les appliquant au cas discret. Finalement, nous analysons la mesure de performance en elle-même et prouvons que l'utilisation d'une mauvaise mesure de performance peut mener à des résultats trompeurs lorsque différentes méthodes d'optimisation sont évaluées. / This thesis exposes contributions to the analysis of algorithms for noisy functions. It exposes convergence rates for linesearch algorithms as well as for random search algorithms. We prove in terms of Simple Regret and Cumulative Regret that a Hessian based algorithm can reach the same results as some optimal algorithms in the literature, when parameters are tuned correctly. On the other hand we analyse the convergence order of Evolution Strategies when solving noisy functions. We deduce log-log convergence. We also give a lower bound for the convergence rate of the Evolution Strategies. We extend the work on revaluation by applying it to a discrete settings. Finally we analyse the performance measure itself and prove that the use of an erroneus performance measure can lead to misleading results on the evaluation of different methods.

Page generated in 0.0818 seconds