Spelling suggestions: "subject:"adaptatif"" "subject:"adaptation""
11 |
Commande directe du couple appliquée à une machine à reluctance commutée à trois phasesFahas, Sofiane 10 February 2024 (has links)
Le moteur à reluctance commutée (SRM) est connu pour sa conception simple, sans aimants permanents, bobinage au rotor et son bas cout de production et une bonne robustesse qui lui confère conception, même sous la perte d’une phase ou de plus et d’opérer dans un environnement industriel très contraignant. Néanmoins ce moteur présente de nombreux inconvénients due à sa double saillance polaire, ses caractéristiques magnétiques et un couple de sortie hautement non linéaires très instable et qui présente de fortes perturbations. La double saillance du moteur ne permettant pas d’exciter ce dernier par une alimentation CA conventionnelle et de commander ce moteur utilisant la théorie des champs tournants. En outre, en raison des caractéristiques de sortie de couple non linéaires du moteur, une ondulation à couple élevé est inhérente au moteur, sauf si une stratégie de réduction de l’ondulation de couple est utilisée. Afin de parer à la non linéarité du couple de sortie et de diminuer les fortes perturbations de couple, plusieurs techniques ont été utilisées. La technique de contrôle du couple direct (DTC) est une excellente technique qui a donné de bons résultats pour ce type de moteur, et pour ce faire notre travail peut être considérée comme une contribution à l’amélioration de la DTC. Nous considérons spécifiquement le remplacement des régulateurs à hystérésis par ceux utilisant les techniques d’intelligence artificielle (logique floue, réseaux de neurones et neuro-flou), avec une concentration plus prononcée pour la technique de régulation par logique floue avec une structure Takagi-Sugeno comme le cœur de notre travail. Pour finir, nous avons utilisé la commande adaptative pour varier les paramètres du régulateur flou en temps réel lors de perturbations paramétriques du SRM et notamment pour parer à la variation de la résistance statorique. La loi de contrôle et la loi adaptative développées, garantissent que tous les signaux dans le système en boucle fermée sont limités en amplitude, alors que la conception du contrôleur est basée sur la synthèse de Lyapunov. / Switched Reluctance (RS) Motors have an intrinsic simplicity and low cost that makethem well suited to many applications. Furthermore, the motors have a high robustness due to the ability to operate with the loss of one or more motor phases and are thus well suited to operate in harsh industrial environments. However, the motor has many drawbacks due to the motor’s doubly salient structure as well as highly non-linear torque output and magnetization characteristics. The double salient structure leads to the inability to excite the motor using conventional ac motor rotating field theory to the motor. Furthermore, due to the motor’s non-linear torque output characteristics, a hightorque ripple is inherent in the motor unless a torque ripple reduction strategy is employed. to overcome the non-linearity of the output torque and reduce torque ripple,several techniques have been developed. Direct torque control (DTC) is an excellent technique which has had good results for this type of motor. our work, is a contribution to the improvement of the DTC by the substitution of the hysteresis regulators by thoseusing artificial intelligence techniques (fuzzy logic, neural networks and neuro-fuzzy), with a more pronounced concentration in our study for fuzzy logic regulation technique with Takagi-Sugeno structure. Finally, we used the adaptive control to vary the fuzzy regulator parameters in real time during parametric disturbance of the SRM and especially during stator resistance variation. The control law and the adaptive law developed guarantee the delimitation of all the signals in the closed-loop system and the controller design is made according to Lyapunov's synthesis
|
12 |
Assemblage adaptatif de génomes et de méta-génomes par passage de messagesBoisvert, Sébastien 20 April 2018 (has links)
De manière générale, les procédés et processus produisent maintenant plus de données qu’un humain peut en assimiler. Les grosses données (Big Data), lorsque bien analysées, augmentent la compréhension des processus qui sont opérationnels à l’intérieur de systèmes et, en conséquence, encouragent leur amélioration. Analyser les séquences de l’acide désoxyribonucléique (ADN) permet de mieux comprendre les êtres vivants, en exploitant par exemple la biologie des systèmes. Les séquenceurs d’ADN à haut débit sont des instruments massivement parallèles et produisent beaucoup de données. Les infrastructures informatiques, comme les superordinateurs ou l’informatique infonuagique, sont aussi massivement parallèles de par leur nature distribuée. Par contre, les ordinateurs ne comprennent ni le français, ni l’anglais – il faut les programmer. Les systèmes logiciels pour analyser les données génomiques avec des superordinateurs doivent être aussi massivement parallèles. L’interface de passage de messages permet de créer de tels logiciels et une conception granulaire permet d’entrelacer la communication et le calcul à l’intérieur des processus d’un système de calcul. De tels systèmes produisent des résultats rapidement à partir de données. Ici, les logiciels RayPlatform, Ray (incluant les flux de travail appelé Ray Meta et Ray Communities) et Ray Cloud Browser sont présentés. L’application principale de cette famille de produits est l’assemblage et le profilage adaptatifs de génomes par passage de messages. / Generally speaking, current processes – industrial, for direct-to-consumers, or researchrelated – yield far more data than humans can manage. Big Data is a trend of its own and concerns itself with the betterment of humankind through better understanding of processes and systems. To achieve that end, the mean is to leverage massive amounts of big data in order to better comprehend what they contain, mean, and imply. DNA sequencing is such a process and contributes to the discovery of knowledge in genetics and other fields. DNA sequencing instruments are parallel objects and output unprecedented volumes of data. Computer infrastructures, cloud and other means of computation open the door to the analysis of data stated above. However, they need to be programmed for they are not acquainted with natural languages. Massively parallel software must match the parallelism of supercomputers and other distributed computing systems before attempting to decipher big data. Message passing – and the message passing interface – allows one to create such tools, and a granular design of blueprints consolidate production of results. Herein, a line of products that includes RayPlatform, Ray (which includes workflows called Ray Meta and Ray Communities for metagenomics) and Ray Cloud Browser are presented. Its main application is scalable (adaptive) assembly and profiling of genomes using message passing.
|
13 |
Architecture auto-adaptative pour le transcodage vidéo / Self-Adaptive Architecture for Video TranscodingGuarisco, Michael 14 November 2011 (has links)
Le transcodage est un élément clé dans la transmission vidéo permettant à une séquence vidéo de passer d'un type de codage à un autre afin de s'adapter au mieux aux capacités de transport d'un canal de transmission. L'intérêt de ce type de traitement est de faire profiter un maximum d'utilisateurs possédant des terminaux variés dont la résolution spatiale, la résolution temporelle affichable, et le type de canal utilisé pour accéder au média varient fortement, et cela à partir d'une seule source de qualité et résolution maximale, stockée sur un serveur, par exemple. Le transcodage est adapté dans les cas où l'on souhaite envoyer une séquence vidéo vers un destinataire et dont le chemin serait constitué de divers canaux de transmission. Nous avons réalisé un transcodeur par requantification ainsi qu'un transcodeur par troncature. Ces deux méthodes ont été comparées et il apparait qu'en termes de qualité d'image l'une ou l'autre de ces méthodes est plus efficace selon le contexte. La suite de nos travaux consiste en l'étude du standard scalable dérivé de H.264 AVC, le standard SVC (Scalable Video Coding). Nous avons souhaité étudier un transcodeur en qualité, mais aussi en résolution spatiale qui permettra de réécrire le flux SVC en un flux AVC décodable par les décodeurs du marché actuel. Cette transposition est réalisée grâce à une architecture reconfigurable permettant de s'adapter aux nombreux types de flux pouvant être conformes au standard SVC d' H.264. L'étude proposée a aboutie à une implémentation partielle d'un transcodeur du type SVC vers AVC. Nous proposons dans cette thèse une description des implémentations de transcodage concernant les formats AVC puis SVC / Transcoding is a key element in the video transmission allows a video to go from one encoding type to another in order to adapt better to the transport capacity of a transmission channel. The advantage of this type of treatment is to make the most of users with various terminals with spatial resolution, temporal resolution displayable, and type of channel used to access the media vary widely, and from that of a single source of quality and maximum resolution, stored on a server, for example. Transcoding is appropriate where you want to send a video to a recipient and whose path would consist of various transmission channels. We realized by a transcoder and a requantization transcoder by truncation. These two methods were compared and it appears that in terms of image quality in either of these methods is more effective depending on the context. Following our work is the study of the standard H.264 AVC scalable derivative of the standard SVC (Scalable Video Coding). We wanted to study as a transcoder, but also in spatial resolution which will rewrite the SVC flow in a stream stroke decodable by decoders on the market today. This mapping is achieved through are configurable architecture to adapt to many types of flow which may conform to standard SVC to H.264. The proposed study has accomplished a partial implementation of a transcoder type SVC to AVC. We propose here a description of the implementations on AVC transcoding and SVC
|
14 |
Réalisation et étude de substrats adaptatifs d'InP utilisant une couche de nanocavités créée par implantation ioniqueChicoine, Martin January 2004 (has links)
No description available.
|
15 |
Risque avec normalisation aléatoire et test adaptatif dans le modèle additif.Chiabrando, Fabien 03 July 2008 (has links) (PDF)
Cette thèse est consacrée à l'amélioration de l'estimation d'une fonction ou signal f, par le biais d'une approche voisine à l'approche minimax. Cette démarche est motivée par la construction de régions de confiance, pour f, plus fines que celle obtenues via l'approche d'estimation dans le cadre minimax. En effet, nous nous intéressons ici à estimer des fonctions de plusieurs variables (on notera d leur nombre) pouvant être intégrées en pratique dans des modèles économiques, biologiques et autres domaines pouvant mettre en jeu un nombre conséquent de critères quantitatifs. De manière générale et contrairement au problème paramétrique, lorsque la valeur du paramètre d est grande, l'efficacité des résultats minimax s'en ressent. Ce phénomène est connu au sein de la communauté statistique sous le nom de "malédiction de la dimension" (curse of dimensionality).<br /><br />Afin de ne pas pénaliser l'estimation en grande dimension ou de manière générale dans des modèles où l'approche minimax n'est pas satisfaisante (sur des espaces fonctionnels trop massifs), Lepski a developpé une approche alternative. Celle-ci se base sur l'idée simple d'adapter la méthode d'estimation en fonction des résultats de tests d'hypothèses 'accélératrices'. Cette démarche utilise des résultats issus de la théorie des tests afin d'envisager une estimation adaptative. Elle va nous amener à introduire le concept de risque avec normalisation aléatoire. Ainsi nous nous consacrerons par la suite à résoudre deux types de problèmes statistiques fortement reliés
|
16 |
Un système tutoriel intelligent et adaptatif pour l'apprentissage de compétences en environnement virtuel de formationBuche, Cédric Tisseau, Jacques January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Brest : 2005. / Bibliogr. p.177-190.
|
17 |
Évaluation analytique de la précision des systèmes en virgule fixeRocher, Romuald Sentieys, Olivier. January 2006 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommunications : Rennes 1 : 2006. / Bibliogr. p. 191-197.
|
18 |
Optimisation par synthèse architecturale des méthodes de partitionnement temporel pour les circuits reconfigurablesLiu, Ting Weber, Serge. January 2008 (has links) (PDF)
Thèse de doctorat : Instrumentation et Micro-Électronique : Nancy 1 : 2008. / Titre provenant de l'écran-titre. Bibliogr.
|
19 |
CoRDAGe un service générique de co-déploiement et redéploiement d'applications sur grilles /Cudennec, Loïc Bougé, Luc Antoniu, Gabriel January 2009 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2009. / Titre provenant de la page du titre du document électronique. Bibliogr. p. 151-163.
|
20 |
Développement et validation d'algorithmes à convergence rapide pour l'apprentissage de réseaux de neurones utilisés en contrôle actif non-linéaireBouchard, Martin. January 1997 (has links)
Thèses (Ph.D.)--Université de Sherbrooke (Canada), 1997. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
|
Page generated in 0.0439 seconds