Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
381 |
Étude et optimisations d'une communication à haut débit par courant porteur en ligne pour l'automobileTanguy, Philippe 25 June 2012 (has links) (PDF)
Le marché de l'électronique dans l'automobile est en constante augmentation. En effet, nos voitures embarquent de plus en plus d'électroniques pour améliorer notre confort, notre sécurité et même nos loisirs avec l'arrivée d'applications de type multimédia. À cela s'ajoute une nécessité pour ces fonctions de communiquer entre elles qui est toujours plus importante. Cela n'est pas sans conséquences pour les constructeurs et équipementiers de l'automobile qui assistent à un engorgement des faisceaux de câbles permettant l'échange de données entre les calculateurs, les capteurs et bien d'autres fonctions. De nouvelles architectures de réseaux et de calculateurs semblent alors nécessaires comme cela a été le cas il y a quelques années avec l'apparition des réseaux multiplexés comme le CAN et récemment le FlexRay. Dans ce travail de thèse, nous proposons d'étudier un nouveau type de réseau de communication qui ne nécessite pas l'ajout de nouveaux câbles et qui laisse présager des débits élevés: le courant porteur en ligne (CPL). Plus précisément, le CPL est un moyen de communication bien connu de l'Indoor qui permet d'utiliser le réseau électrique pour échanger des données. Ce type de réseau serait potentiellement intéressant pour des applications d'aide à la conduite et de multimédia. Dans une première partie, nous avons réalisé une étude de faisabilité qui a utilisé des modems dédiés aux communications CPL Indoor. Les standards HPAV et HD-PLC ont été testés et les résultats montrent des débits supérieurs à 10 Mbps. Ensuite, nous avons étudié plus spécifiquement le canal de propagation CPL à partir de mesures faites sur quatre véhicules. Cela nous a permis d'entreprendre une étude de caractérisation du canal: bande de cohérence, étalement des retards, bruit de fond et bruits impulsifs. Dans une deuxième partie, un travail de simulation a été réalisé afin d'étudier plus spécifiquement les performances d'une transmission multi-porteuse de type DMT. L'influence de la topologie, des points dans le réseau électrique ainsi que les scénarios (véhicule à l'arrêt, en fonctionnement, ...) ont été mis en évidence et ont confirmé les variations des débits de l'étude de faisabilité. Ensuite, nous avons cherché à optimiser deux paramètres importants dans le but de maximiser les débits: l'intervalle de garde et l'espacement entre porteuses. Il en ressort que nous pouvons augmenter l'espacement entre porteuses et réduire la taille de l'intervalle de garde comparé au standard HPAV. Enfin, nous montrons que la couche PHY d'un système CPL pour l'automobile doit être, comme l'Indoor, adaptative aux variations et à la diversité des canaux de propagation. Dans une dernière partie, nous présentons notre démonstrateur qui utilise une plateforme radio logicielle USRP2. Il est original dans sa réalisation car il permet de construire la couche PHY de manière logicielle sur un GPP. Ce principe offre une grande souplesse et la flexibilité nécessaire à un prototype. De premiers tests d'une communication CPL intra-véhicule confirment les résultats obtenus en simulation. Des mesures de débits atteignables, dans une bande de [0-12.5] MHz, ont été faites pour deux cas: voiture à l'arrêt et moteur allumé.
|
382 |
Séparation aveugle de sources audio dans le contexte automobileAïssa-El-Bey, Abdeldjalil 06 July 2007 (has links) (PDF)
Cette thèse se déroule dans le cadre d'une étude sur la séparation de sources audio dans un milieu réverbérant. Cette étude est menée par l'ENST d'une part et FTR&D (Lannion) d'autre part.<br /><br />Dans le cadre de notre étude nous avons montré comment effectuer la séparation de sources audio en utilisant une méthode basée sur des algorithmes de décomposition modale (EMD ou ESPRIT). Les avantages de cette approche résident dans le fait qu'elle permet de traiter le cas des mélanges instantanés et convolutifs, et elle nous permet en particulier, de traiter le cas sous-déterminé. Cette approche se base sur le fait que les signaux audio (et particulièrement les signaux musicaux) peuvent être bien modélisés localement par une somme de signaux périodiques. Ces signaux seront donc décomposés en utilisant les algorithmes de décomposition modale et recombinés par classification suivant leurs directions spatiales regroupant ainsi les composantes de chacune des sources. Cette méthode peut être utilisée dans le cas du mélange convolutif sur-déterminé, en lui conjuguant une décomposition en valeurs et vecteurs propres et un critère de parcimonie approprié.<br /><br />Toujours dans le cadre de cette thèse, nous avons montré comment effectuer la séparation de mélange instantané de sources audio dans le cas sous-déterminé en utilisant la propriété de parcimonie des signaux audio dans le domaine temps-fréquence. Nous proposons deux méthodes utilisant différentes transformées dans le domaine temps-fréquence. La première utilise les distributions temps-fréquence quadratiques DTFQ (ou STFD pour "Spatial Time Frequency Distribution"), la deuxième utilise la transformée de Fourier à court terme TFCT (ou STFT pour "Short Time Fourier Transform"). Ces deux méthodes supposent que les sources sont disjointes dans le domaine temps-fréquence ; c'est à dire qu'une seule source est présente dans chaque point temps-fréquence. Nous proposons ensuite de relâcher cette contrainte on supposant que les sources ne sont pas forcément disjointes dans le domaine temps-fréquence. En particulier, le nombre de sources présentent en un point temps-fréquence doit être strictement inférieur au nombre de capteur. Pour effectuer la séparation dans ce cas de figure, on utilise la projection en sous-espace qui permet d'identifier les sources présentent dans chaque point temps-fréquence et de déterminer la valeur correspondante à chaque source. Une contribution sous-jacente est celle d'une nouvelle méthode d'estimation de la matrice de mélange dans le cas sous-déterminé.<br /><br />Dans le même esprit, nous avons introduit une approche basée sur la transformation dans le domaine temps-fréquence pour résoudre le problème de séparation de mélange convolutif de sources audio dans le cas sous-déterminé. Cette approche nécessite une pré estimation du canal de mélange qui sera réalisée en exploitant la propriété de parcimonie temporelle des signaux audio et la structure des canaux acoustiques.<br /><br />Nous avons exploité aussi la propriété de parcimonie des signaux audio dans le domaine temporel. Nous avons proposé une méthode itérative utilisant une technique du gradient relatif qui minimise une fonction de contraste basée sur la norme Lp. Cette norme pour p < 2 (ou même p < 1) est considérée comme une bonne mesure de parcimonie. Les simulations prouvent que la méthode proposée surpasse d'autres méthodes basées sur l'indépendance de source.<br /><br />Pour Finir, nous nous sommes intéressés à une méthode itérative de séparation de sources utilisant les statistiques d'ordre deux (SOS pour Second Ordre Statistics). Les statistiques d'ordre deux des données observées s'avèrent suffisantes pour séparer des sources mutuellement non corrélées à condition que les vecteurs de corrélation temporelles des sources considérés soient linéairement indépendants par paires. En appliquant une technique de gradient naturel, on déduit un algorithme itératif qui possède un certain nombre de propriétés attrayantes, comme sa simplicité et sa généralisation aux cas adaptatifs ou convolutifs. Nous proposons aussi une analyse de performances asymptotique de cet algorithme qui sera validée par plusieurs simulations.
|
383 |
Estimation des conditions de visibilité météorologique par caméras routièresBabari, Raouf 11 April 2012 (has links) (PDF)
La mesure de la visibilité météorologique est un élément important pour la sécurité des transports routiers et aériens. Nous proposons dans ce travail de recherche un indicateur de la visibilité météorologique adapté aux caméras fixes de vidéo surveillance du réseau routier. Il est fondé sur le module du gradient sélectionné dans des zones dont le comportement suit une loi de réflexion de Lambert vis à vis des conditions d'éclairage. La réponse de cet indicateur est issue d'une modélisation fondée sur une hypothèse de la distribution des profondeurs dans la scène. Celle-ci est calibrée avec des données provenant d'un visibilimètre ou bien avec une carte de profondeurs issue d'un modèle numérique de terrain. Les estimations sont ensuite comparées avec des données de référence obtenues par un visibilimètre et montrent une erreur moyenne similaire pour des images prises dans différentes conditions d'éclairage et de visibilité météorologique
|
384 |
Réflectométrie appliquée à la détection de défauts non francs dans les torons de câblesFranchet, Maud 12 September 2012 (has links) (PDF)
Ces travaux de thèse portent sur la détection de défauts non francs dans des structures filaires particulières : les lignes de transmission a multiconducteurs (MTL), aussi appelées torons de câbles. Couramment employées pour le diagnostic de réseaux filaires, les méthodes par réflectométrie ne sont, pour l'heure, pas suffisamment performantes pour détecter de tels défauts. Par ailleurs, elles n'ont, en général, été étudiées et développées que pour des lignes simples, ou les phénomènes de couplages électromagnétiques entre les conducteurs (diaphonie) ne sont pas présents. Ces derniers sont cependant porteurs d'information supplémentaire sur l'état du câble. Les utiliser permettrait d'accroître la sensibilité de détection aux défauts. L'objectif est de proposer une nouvelle méthode de réflectométrie, tirant profit des signaux de diaphonie pour détecter les défauts non francs. Une telle méthode présente également l'avantage d'être adaptée aux structures en toron. Après avoir étudié l'impact d'un défaut non franc sur les paramètres caractéristiques d'une MTL et sur les signaux de diaphonie, une méthode, la "Cluster Time Frequency Domain Reflectometry ", a pu être proposée. Il s'agit d'un procédé en trois étapes. Des mesures par réflectométrie temporelle sont tout d'abord réalisées à l'entrée de la ligne à diagnostiquer. Tous les signaux présents, y compris ceux de diaphonie, sont enregistrés. Un traitement temps-fréquence leur est ensuite appliqué afin d'amplifier la présence d'éventuels défauts. Enfin, un algorithme de clustering, spécifiquement développé pour le diagnostic filaire, est utilisé de manière a bénéficier de l'ensemble de l'information disponible
|
385 |
Exploration d'architectures génériques sur FPGA pour des algorithmes d'imagerie multispectraleTan, Junyan 12 June 2012 (has links) (PDF)
Les architectures multiprocesseur sur puce (MPSoC) basées sur les réseaux sur puce (NoC) constituent une des solutions les plus appropriées pour les applications embarquées temps réel de traitement du signal et de l'image. De part l'augmentation constante de la complexité de ces algorithmes et du type et de la taille des données manipulées, des architectures MPSoC sont nécessaires pour répondre aux contraintes de performance et de portabilité. Mais l'exploration de l'espace de conception de telles architectures devient très coûteuse en temps. En effet, il faut définir principalement le type et le nombre des coeurs de calcul, l'architecture mémoire et le réseau de communication entre tous ces composants. La validation par simulation de haut niveau manque de précision, et la simulation de bas niveau est inadaptée au vu de la taille de l'architecture. L'émulation sur FPGA devient donc inévitable. Dans le domaine de l'image, l'imagerie spectrale est de plus en plus utilisée car elle permet de multiplier les intervalles spectraux, améliorant la définition de la lumière d'une scène pour permettre un accès à des caractéristiques non visibles à l'oeil nu. De nombreux paramètres modifient les caractéristiques de l'algorithme, ce qui influence l'architecture finale. L'objectif de cette thèse est de proposer une méthode pour dimensionner au plus juste l'architecture matérielle et logicielle d'une application d'imagerie multispectrale. La première étape est le dimensionnement du NoC en fonction du trafic sur le réseau. Le développement automatique d'une plateforme d'émulation sur mono ou multi FPGA facilite cette étape et détermine le positionnement des composants de calcul. Ensuite, le dimensionnement des composants de calcul et leurs fonctionnalités sont validés à l'aide de plateformes de simulation existantes, avant la génération du modèle synthétisable sur FPGA. Le flot de conception est ouvert dans le sens qu'il accepte différents NoC à condition d'avoir le modèle source HDL de ce composant. De nombreux résultats mettent en avant les paramètres importants qui ont une influence sur les performances des architectures et du NoC en particulier. Plusieurs solutions sont décrites, commentées et critiquées. Ces travaux nous permettent de poser les premiers jalons d'une plateforme d'émulation complète MPSoC à base de NoC
|
386 |
Réseaux de capteurs ad-hoc Ultra Wide Band : une analyse multi couchePanaitopol, Dorin 05 July 2011 (has links) (PDF)
Les systèmes Ultra Wide Band (UWB) représentent une solution prometteuse pour le développement de nouveaux types de réseaux locaux sans-fils. L'UWB a été un domaine de recherche actif depuis 20 ans et pourrait être la couche physique pour de futurs réseaux sans fils à accès multiples à très haut débit ainsi qu'à bas débit avec consommation énergétique minimale, tout en offrant des possibilités de localisation à haute précision. Nous nous intéressons dans cette thèse aux réseaux ad-hoc de capteurs UWB en partant de la couche physique pour remonter aux couches plus élevées : optimisation d'antenne, modélisation d'interférence, conception de récepteurs et transmetteurs, optimisation de débit et schémas coopératifs. Une première contribution concerne la non Gaussianité des interférences multi utilisateurs : nous avons développé un critère de performance qui prend en compte les paramètres du système et la distribution des MUI afin de calculer la capacité des communications et le débit utile. Nous avons montré que le débit peut être maximisé en contrôlant l'impulsivité des interférences et nous avons montré l'impact de la conception de l'antenne sur cette impulsivité et par conséquent sur la capacité des systèmes UWB. A partir de l'étude des MUI, une autre contribution concerne de nouveaux récepteurs et émetteurs IR-UWB. Le récepteur proposé modélise la densité de probabilité des interférences comme une distribution mélangée. Nous avons également étudié un nouvel émetteur basé sur le retournement temporel combiné à l'IR UWB et étudié le gain apporté par le retournement temporel lorsque la complexité est assumée par le transmetteur à la place du récepteur, i.e. quand le nombre de doigts du pre-filtre est augmenté et quand le nombre de doigts du récepteur à râteau est diminué. Nous avons également montré que le time réversal combiné à l'IR UWB change la distribution des interférences. Les recherches ont ensuite porté sur des schémas coopératifs. Nous avons proposé dans une première étude un schéma de relayage incrémental qui utilise plusieurs relais mais avec un retour imparfait et proposé finalement une règle simple de sélection distribuée des relais.
|
387 |
Mitigating error propagation of decision feedback equalization in boradband communications /Wang, Rujiang. January 2008 (has links)
Thèse (Ph. D.)--Université Laval, 2008. / Bibliogr.: f. [130]-144. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
|
388 |
Transmission numérique sans fil en bande de base pour la communication à courte distance avec des circuits cryogéniques / Wireless baseband transmission for short distance digital communication with circuits placed at cryogenic temperatureAbayaje, Furat 13 March 2017 (has links)
Les circuits logiques "Rapid Single-Flux-Quantum" (RSFQ) à base de jonctions Josephson supraconductrices sont utilisés pour générer, traiter et transmettre des impulsions ultra-courtes dont l'aire quantifiée est celle du quantum de flux magnétique h/2e et correspond à 2.07 mV.ps. De tels circuits sont utilisés pour traiter le signal à très haute fréquence avec des fréquences d'horloge dans la gamme 10-120 GHz et une puissance consommée environ 100 à 1000 fois plus faible (incluant le coût énergétique du refroidissement à 4,2 K) que celle des meilleurs circuits semi-conducteurs équivalents. La logique RSFQ est une alternative intéressante pour les super-ordinateurs et offre des performances inégalées pour traiter les signaux micro-ondes à la volée. Une fois les signaux numérisés et traités à température cryogénique, le défi principal est de transférer à température ambiante les signaux numériques de faible tension (dans la gamme 200-1000µV) à des débits de 1 à 10 Gbps par voie, tout en limitant la charge thermique sur le système de réfrigération cryogénique, afin de construire un système performant à très haut débit numérique. Une solution à ce verrou est de transmettre les signaux par un système d'émission-réception sans fil avec la bande passante suffisante. Ce travail examine différents systèmes de transmission sans fil à courte distance, correspondant à la configuration physique entre les étages à températures cryogénique et ambiante, pour des taux de transmission de quelques Gbps. Il s'est construit sur quatre points cruciaux à résoudre :• le choix et l'étude du codage numérique approprié pour être utilisé comme support de transmission en bande de base des signaux sans utiliser de modulation analogique, comme les codages Polar Return-to-Zero et Manchester ;• l'étude et la sélection d'antennes ultra large bande avec une attention particulière portée sur les antennes Vivaldi antipodales et les antennes monopôles pour satisfaire aux contraintes cryogéniques ;• l'étude du taux d'erreur du système de transmission. Deux méthodes ont été développées pour récupérer les signaux numériques et minimiser le taux d'erreur ;• la comparaison entre simulations et mesures afin d'évaluer la performance du système global. / Rapid Single-Flux-Quantum (RSFQ) logic circuits based on superconducting Josephson junctions are using to generate, process and transmit very short quantized pulses whose area is the quantum of magnetic flux h/2e and corresponds to 2.07 mV.ps. Such circuits are used to process signals at very high speed with clock frequencies in the 10-120 GHz range and a power consumption about 100 to 1000 times lower that their best available semiconductor counterparts (including the cost of cooling down to 4,2K). RSFQ logic is an interesting alternative for supercomputers and offers unsurpassed performances for processing microwave signals on the fly. Once digital signals are processed at cryogenic temperature the key challenge is to transfer at room temperature the low-voltage output digital signals (about 200-1000µV) at high rates of about 1-10Gbps per channel, by limiting the thermal burden on the cryogenic system, in order to build high performance high throughput systems.A solution is to transmit the signals with a wireless emitting-receiving antenna set with a suitable bandwidth. This work examines several wireless baseband transmission systems in a short distance configuration, associated to the distance between the cryogenic and room temperature stages, for data rates in the range of a few Gbps. It elaborates on four crucial issues :• the choice and study of the proper line codes to be used for baseband transmission of digital signals without the need for analogue modulations, such as Polar Return-to-Zero and Manchester encodings ;• the study and selection of ultra-wide bandwidth antennas with a focus on small size Antipodal Vivaldi Antennas and monopole antennas to meet cryogenic constraints ;• the study of the Bit Error Rate (BER) of the transmitting system. Two methods were developed to recover the digital output signals and minimize the BER.• the comparison between simulations and measurements to assess the performance of the overall system.
|
389 |
Egocentric Audio-Visual Scene Analysis : a machine learning and signal processing approach / Analyse audio-visuelle de la scène d'un point de vue égocentrique : une approche par de l'apprentissage automatique et du traitement du signal.Alameda-Pineda, Xavier 15 October 2013 (has links)
Depuis les vingt dernières années, l'industrie a développé plusieurs produits commerciaux dotés de capacités auditives et visuelles. La grand majorité de ces produits est composée d'un caméscope et d'un microphone embarqué (téléphones portables, tablettes, etc). D'autres, comme la Kinect, sont équipés de capteurs de profondeur et/ou de petits réseaux de microphones. On trouve également des téléphones portables dotés d'un système de vision stéréo. En même temps, plusieurs systèmes orientés recherche sont apparus (par exemple, le robot humanoïde NAO). Du fait que ces systèmes sont compacts, leurs capteurs sont positionnés près les uns des autres. En conséquence, ils ne peuvent pas capturer la scène complète, mais qu'un point de vue très particulier de l'interaction sociale en cours. On appelle cela "Analyse Égocentrique de Scènes Audio-Visuelles''.Cette thèse contribue à cette thématique de plusieurs façons. D'abord, en fournissant une base de données publique qui cible des applications comme la reconnaissance d'actions et de gestes, localisation et suivi d'interlocuteurs, analyse du tour de parole, localisation de sources auditives, etc. Cette base a été utilisé en dedans et en dehors de cette thèse. Nous avons aussi travaillé le problème de la détection d'événements audio-visuels. Nous avons montré comme la confiance en une des modalités (issue de la vision en l'occurrence), peut être modélisée pour biaiser la méthode, en donnant lieu à un algorithme d'espérance-maximisation visuellement supervisé. Ensuite, nous avons modifié l'approche pour cibler la détection audio-visuelle d'interlocuteurs en utilisant le robot humanoïde NAO. En parallèle aux travaux en détection audio-visuelle d'interlocuteurs, nous avons développé une nouvelle approche pour la reconnaissance audio-visuelle de commandes. Nous avons évalué la qualité de plusieurs indices et classeurs, et confirmé que l'utilisation des données auditives et visuelles favorise la reconnaissance, en comparaison aux méthodes qui n'utilisent que l'audio ou que la vidéo. Plus tard, nous avons cherché la meilleure méthode pour des ensembles d'entraînement minuscules (5-10 observations par catégorie). Il s'agit d'un problème intéressant, car les systèmes réels ont besoin de s'adapter très rapidement et d'apprendre de nouvelles commandes. Ces systèmes doivent être opérationnels avec très peu d'échantillons pour l'usage publique. Pour finir, nous avons contribué au champ de la localisation de sources sonores, dans le cas particulier des réseaux coplanaires de microphones. C'est une problématique importante, car la géométrie du réseau est arbitraire et inconnue. En conséquence, cela ouvre la voie pour travailler avec des réseaux de microphones dynamiques, qui peuvent adapter leur géométrie pour mieux répondre à certaines tâches. De plus, la conception des produits commerciaux peut être contrainte de façon que les réseaux linéaires ou circulaires ne sont pas bien adaptés. / Along the past two decades, the industry has developed several commercial products with audio-visual sensing capabilities. Most of them consists on a videocamera with an embedded microphone (mobile phones, tablets, etc). Other, such as Kinect, include depth sensors and/or small microphone arrays. Also, there are some mobile phones equipped with a stereo camera pair. At the same time, many research-oriented systems became available (e.g., humanoid robots such as NAO). Since all these systems are small in volume, their sensors are close to each other. Therefore, they are not able to capture de global scene, but one point of view of the ongoing social interplay. We refer to this as "Egocentric Audio-Visual Scene Analysis''.This thesis contributes to this field in several aspects. Firstly, by providing a publicly available data set targeting applications such as action/gesture recognition, speaker localization, tracking and diarisation, sound source localization, dialogue modelling, etc. This work has been used later on inside and outside the thesis. We also investigated the problem of AV event detection. We showed how the trust on one of the modalities (visual to be precise) can be modeled and used to bias the method, leading to a visually-supervised EM algorithm (ViSEM). Afterwards we modified the approach to target audio-visual speaker detection yielding to an on-line method working in the humanoid robot NAO. In parallel to the work on audio-visual speaker detection, we developed a new approach for audio-visual command recognition. We explored different features and classifiers and confirmed that the use of audio-visual data increases the performance when compared to auditory-only and to video-only classifiers. Later, we sought for the best method using tiny training sets (5-10 samples per class). This is interesting because real systems need to adapt and learn new commands from the user. Such systems need to be operational with a few examples for the general public usage. Finally, we contributed to the field of sound source localization, in the particular case of non-coplanar microphone arrays. This is interesting because the geometry of the microphone can be any. Consequently, this opens the door to dynamic microphone arrays that would adapt their geometry to fit some particular tasks. Also, because the design of commercial systems may be subject to certain constraints for which circular or linear arrays are not suited.
|
390 |
Méthodes de traitement innovantes pour les systèmes de commandes de vol / Innovative processing of anemometric and inertial data in the flight control systemsCazes, Florian 28 March 2013 (has links)
Implantés pour la première fois en 1980, les systèmes de commandes de vol électriques (CDVE) équipent désormais tous les avions AIRBUS et constituent un standard industriel dans l’aviation civile. Les CDVE permettent notamment un meilleur contrôle de l’avion (lois de pilotage et pilote automatique plus évolués...) et la mise en place de fonctions spécifiques de protection de l’enveloppe de vol. Les objectifs des avionneurs, dans le cadre de l’amélioration globale des futurs appareils, s’orientent vers des appareils plus stables, plus maniables, moins coûteux et donc plus écologiques. Cela se traduit en particulier par l’augmentation de la disponibilité des systèmes de commande de vol. Actuellement, la solution la plus utilisée par les avionneurs consiste à augmenter la redondance et la dissimilarité matérielles. Ainsi, les paramètres de vol qui sont entre autres nécessaires au calcul des lois de pilotage, sont mesurés par plusieurs capteurs (par exemple trois sondes d’incidence, trois sondes pitot...). Pour chaque paramètre de vol, un choix ou un calcul doit être réalisé pour évincer les sources présentant un dysfonctionnement. Ceci permet de fournir une unique valeur aux autres systèmes de l’appareil tout en s’assurant sa disponibilité. Ce processus est appelé « consolidation ». L’objectif de la thèse est de réaliser des méthodes de détection de dysfonctionnements agissant sur chaque capteur puis de proposer une stratégie de fusion des informations, en vue de remplacer l’actuel processus de « consolidation ». L’idée principale consiste à créer des capteurs dits « logiciels », qui sont des estimateurs des paramètres de vol (mesurés par des capteurs externes de l’avion) utilisant d’autres paramètres de vol dissimilaires (en l’occurence des paramètres inertiels, mesurés par des capteurs différents et internes). La régression PLS (pour partial least squares) permet de réaliser cette estimation. Des stratégies de détection et des méthodes de fusion découlent de ses propriétés. / From the 80’s to today, all AIRBUS civil aircraft are equipped with electrical flight control systems (EFCS). This technology now constitutes an industrial standard for commercial applications. This allows a more sophisticated aircraft control (advanced flight laws, more available autopilot...) and the setting up of specific protection functions of the flight enveloppe. In the framework of a global aircraft optimisation, for future and upcoming programs, current research efforts are dedicated to a more easy-to-handle aircraft, more efficient and so on more environmentally-friendly, resulting in augmented EFCS availability. The industrial state of practice, for all aircraft manufacturers, is to develop high levels of hardware redundancy (more dissimilar sensors for instance). Therefore several sensors (for instance three angle of attack probes, three pitot probes) provide flight parameter measurements which are necessary for the computation of the flight laws, as an example. For each of these measurements, a choice or computation is performed to provide a unique and valid value among the redundant sensors. In parallel, a monitoring is done to discard a measure in case of a failure. Both processes are called « consolidation ». The aim of the Ph.D. is to provide new detection strategies to detect a failure on each sensor (monosensor monitoring) and then to design new data fusion methods to act as the actual « consolidation » process. The main idea proposes to create « software » sensors which actually are flight parameter estimators (measured by external sensors) created thanks to other dissimilar flight parameters (in our case inertial parameters, measured by inner sensors, from a different technology). The partial least squares regression (PLS) is used to perform this estimation. Detection strategies and fusion methods are following from its properties.
|
Page generated in 0.1041 seconds