Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
541 |
Surveillance de la santé des structures aéronautiques en composites : développement d'un système embarqué à base d'accéléromètres / Structural health monitoring of aeronautical composite structures : design of an embedded system based on accelerometersLastapis, Mathieu 19 September 2011 (has links)
La surveillance de santé structurelle, SHM en anglais, est un domaine en plein essor avec l'arrivée massive des composites dans les transports. Ce matériau plus léger que les alliages traditionnels investit les avions, les trains, les bateaux ou les voitures. Permettant des économies substantielles d'énergie, il présente néanmoins l'inconvénient de pouvoir développer des défauts internes invisibles par une inspection visuelle. Dès lors leur surveillance est primordiale. Les pales d'avions turbopropulseurs (A400M, ATR, etc…) répondent aux mêmes exigences. Etre capable de déterminer un endommagement de la structure par le biais de capteur est tout l'enjeu des recherches. Cet objectif implique deux points : étudier le comportement de la pale et y développer un système embarqué pour obtenir des données et/ou surveiller. Dans ce contexte, ce travail de recherche a pour objectif de mener les premières études en déterminant une premier modèle comportementale des pales; en développant un premier microsystème enregistreur de paramètres de pales; en élaborant un premier algorithme de surveillance de la pale et d'événements endommageant (impacts, survitesses, survibrations) / The structural health monitoring, or SHM, represents today a key challenge today, with a massive use of composites in the field of transport. This material, lighter than a conventional alloy, is very attractive for airplanes, trains, boats or cars manufacturing. This allows significant energy savings, but can hide internal defects invisible from the outside. At this point, dedicated supervision is essential. Blades of turboprop plane (A400M, ATR, etc.) are in face of the same problems. Determination of structural defects by the use of sensors is the key solution for the research in this field. Thus, this problem has two solutions: studying blade performances and designing an embedded system able to record data and/or monitoring the structural health. The research studies presented in this thesis represent the first results of damaged blade performances. It leads to the design of a first embedded data recorder of blade parameters and computes a first dedicated algorithm for monitoring the blade structural health and damaging events (shocks, over-speeds, over-vibrations)
|
542 |
Overcoming the challenges in geometric deep learning via hybrid graph neural network architecturesWenkel, Jan Frederik 11 1900 (has links)
Les progrès technologiques nous permettent aujourd’hui de recueillir des données de différentes modalités, telles que le texte, l'audio, l'image ou la vidéo, à une échelle sans précédent. L'apprentissage profond est l'outil principal qui permet de comprendre et d'exploiter ces collections de données massives. Les capacités actuelles incluant des tâches prédictives telles que l'analyse des sentiments dans les textes, la classification de la musique et des images, la segmentation des images ou la reconnaissance des actions dans les vidéos, ainsi que des tâches génératives telles que la génération de textes, d'images, de musique et même de vidéos. Le succès de l'apprentissage profond dans de nombreuses applications est largement attribué à la capacité des méthodes à exploiter la structure intrinsèque des données. Les tâches de traitement d'images, par exemple, ont donné naissance aux réseaux neuronaux convolutifs qui utilisent l'organisation spatiale des pixels. Cependant, l'analyse des séries temporelles a donné naissance aux réseaux neuronaux récurrents qui utilisent l'organisation temporelle dans leur traitement de l'information en utilisant, par exemple, des mécanismes de mémoire.
Alors que ces modalités peuvent être représentées dans des domaines Euclidiens qui possèdent des propriétés théoriques relativement agréables, d'autres modalités toutes aussi intéressantes possédant une structure plus abstraite. Les données des réseaux sociaux, des moteurs de recherche, des petites molécules ou des protéines sont naturellement représentées par des graphes. L'apprentissage profond géométrique est dirigé vers la généralisation de réseaux neuronaux qui peuvent utiliser la structure à de tels domaines non-Euclidiens. Les principaux outils sont les réseaux neuronaux de graphes qui généralisent les principes des réseaux neuronaux convolutionnels dans le domaine de la vision au domaine des graphes. Cela a permis de développer des méthodes puissantes pour de diverses applications, telles que l'analyse des réseaux sociaux et l’analyse ou la génération de molécules. Toutefois, ces méthodes sont limitées par plusieurs défis fondamentaux liés au paradigme central de passage de messages, c'est-à-dire le calcul répété de moyennes d’information au niveau des sommets par rapport au voisinage de chaque sommet. En conséquence, les représentations locales au niveau des sommets deviennent soit trop similaires en raison des calculs de moyenne répétés, soit les champs récepteurs des modèles sont trop petits pour que les informations ne puissent pas être partagées entre les sommets distants.
Cette thèse présentera des approches pour relever ces défis en commençant par analyser et comprendre des données pertinentes et en identifiant les propriétés structurelles qui permettent un apprentissage efficace des représentations des graphes. Nous formulons ensuite un cadre théorique basé sur la théorie du traitement des signaux de graphes qui nous permet de développer de nouvelles architectures GNN puissantes qui exploitent ces propriétés, tout en atténuant les défis courants. Nous constatons que les modèles hybrides qui combinent les méthodes existantes et les nouveaux principes présentés dans cette thèse sont particulièrement puissants. Nous fournissons des garanties théoriques qui établissent les capacités théoriques des architectures proposées et présentons une analyse empirique qui démontre l'efficacité de ces nouvelles architectures dans une variété d’applications telles que les réseaux sociaux, la biochimie et l'optimisation combinatoire. / Technological advances have enabled us to gather and store data from various modalities such as text, audio, image or video at unprecedented scale. Deep learning is the signature tool that allows to understand and leverage such massive data collections, enabling us to engage in challenging new endeavors. The capabilities range from predictive tasks such as sentiment analysis in text, music and image classification, image segmentation or action recognition in video to generative tasks like generation of text, images, music and even entire videos. The success of deep learning in many applications is largely attributed to the ability of commonly used neural network architectures to leverage the intrinsic structure of the data. Image processing tasks, for example, gave rise to convolutional neural networks that rely on spatial organization of pixels, while time series analysis gave rise to recurrent neural networks that leverage temporal organization in their information processing via feedback loops and memory mechanisms.
While these modalities largely reside in relatively well behaved and often highly regular domains like Euclidean spaces, further modalities that possess more abstract structure have recently attracted much attention. Data from social networks, search engines, small molecules or proteins is naturally represented by graphs and so-called geometric deep learning (GDL) has made great strides towards generalizing the design of structure-aware neural networks to such non-Euclidean domains. Among the most promising methods are graph neural networks (GNNs) that generalize the design of convolutional neural networks in vision to the graph domain. Recent advances in GNN design have introduced increasingly powerful methods for various applications, such as social network analysis, molecular predictive modeling or molecule generation. However, graph representation learning is limited by several fundamental challenges that originate from the central GNN paradigm of message passing, that is repeated averaging of node-level information across node neighborhoods. As a result, local node-level representations become either too similar from excessive averaging, or otherwise, the receptive fields of the models are too small such that information cannot be shared between distant nodes, creating a complex trade-off between so-called oversmoothing and underreaching.
This dissertation presents a principled way of tackling these challenges by first deepening our understanding of the relevant data and identifying the structural properties that allow for effective graph representation learning. We consequently develop a theoretical framework rooted in graph signal processing that allows us to design powerful novel GNN architectures that provably leverage those properties, while alleviating common challenges. We find that hybrid models that combine existing methods together with novel GNN principles are particularly powerful. We provide theoretical guarantees that establish the expressive power of the proposed architectures and present exhaustive empirical analysis that demonstrates the efficacy of these novel architectures in various applications such as social networks, bio-chemistry and combinatorial optimization.
|
543 |
Mitigating error propagation of decision feedback equalization in boradband communicationsWang, Rujiang 13 April 2018 (has links)
L'interférence inter-symboles (ISI) représente un des obstacles majeurs à l'obtention de communications numériques fiables. Sauf pour le cas particulier des systèmes de signalisation à réponse partielle, le taux ISI doit être réduit le plus possible pour obtenir les communications numériques les plus fiables possibles. Pour les communications numériques à large bande , une des techniques les plus utilisées pour minimiser le taux ISI est l'égalisation. Les égalisateurs décisionnels à contre-réaction (DFE) sont parmi les structures les plus fréquemment utilisées, à cause de leur simplicité et de leur bonne performance. Cette thèse s'attaque au problème de la diminution de la propagation des erreurs dans un egalisateur décisionnel à contre réaction basé sur l'erreur quadratique moyenne (MMSE-DFE). Les DFE constituent une part importante des communications numériques modernes. De façon à réduire la propagation des erreurs dans les DFE, ce qui est de fait la limitation la plus importante de ceux-ci, un modèle basé sur l'erreur quadratique moyenne (MSE) est proposé. En s'appuyant sur ce nouveau modèle, les pondérations des filtres DFE, les éminceurs d'effacement (erasure slicer) et les éminceurs souples (soft slicer) peuvent être optimisés. Après une analyse théorique, on procède aux simulations numériques de ces modèles. Ces derniers sont relativement simples à implanter, ce qui contraste avec les modèles traditionnels basés sur les chaînes de Markov. Simultanément, on obtient une précision de prédiction qui se compare très avantageusement à celle obtenue avec les critères conventionnels basés sur l'erreur quadratique moyenne. On constate que l'éminceur souple optimal obtenu excède celui obtenu par l'optimisation conjointe DFE des pondérations et un éminceur à effacement. Les filtres de pondération DFE avec un éminceur optimal souple peuvent être considérés comme un sytème MMSE DFE vrai. La seconde contribution de ce travail de thèse consiste en une nouvelle forme de codage qui interagit avec la propagation des erreurs dans un DFE pour les modulations d'ordre supérieur. Les bits redondantes dans le diagramme d'éparpillement de la nouvelle modulation obtenue augmentent de façon dramatique l'immunité à la propagation des erreurs pour les symboles ayant le même niveau moyen d'énergie. De plus, la méthode proposée n'introduit pas de délais de décodage additionnels et la robustesse à la propagation des erreurs est néanmoins maintenue, même lorsque les pondérations de contre-réaction sont grandes par rapport à celles d'un DFE conventionnel. Globalement, cette thèse explore plusieurs moyens pour combattre la propagation des erreurs dans les DFE. Cette propagation est difficile à analyser surtout à cause de la non-linéarité de l'éminceur dans la boucle de contre réaction. Notre étude démontre que l'introduction de la propagation des erreurs dans le modèle du DFE-MSE conduit à une meilleure optimisation du DFE. L'approximation statistique du bruit et de l'ISI avant l'éminceur s'avère très appropriée pour la simulation numérique. Des connaissances additionnelles sur l'utilisation des DFE dans les canaux large bande ont également été obtenues. Un élément fondamental de nos travaux est la démonstration de l'exigence cyclique en transmission pour les égalisateurs à porteuse unique dans le domaine de la fréquence (SC-FDE). Bien que le traitement du signal en milieu fréquentiel soit largement accepté comme technique pour réduire les efforts de calcul requis, l'analyse théorique et la sirnulation révèlent qu'il y a également un autre avantage au traitement dans le domaine des fréquences. En effet, on montre que lorsque la réponse impulsionnelle du canal est plus longue que le préfixe cyclique du SC-FDE, un traitement dans le domaine fréquentiel amène une meilleure fidélité du signal qu'un traitement dans le temps. On a également regardé l'effet de la limitation de la largeur de bande pour un SC-FDE. Les résultats obtenus montrent qu'il existe une diversité de fréquences aux deux extrémités des secteurs des FFT. Ceci peut amener des idées directrices pour la réalisation physique des SC-FDE, particulièrement pour tenir compte du fait que les caractéristiques des secteurs de FFT requièrent des algorithmes différents pour un canal soumis à l'évanouissement.
|
544 |
Estiamation et fluctuations de fonctionnelles de grandes matrices aléatoiresYao, Jianfeng 09 December 2013 (has links) (PDF)
L'objectif principal de la thèse est : l'étude des fluctuations de fonctionnelles du spectre de grandes matrices aléatoires, la construction d'estimateurs consistants et l'étude de leurs performances, dans la situation où la dimension des observations est du même ordre que le nombre des observations disponibles. Il y aura deux grandes parties dans cette thèse. La première concerne la contribution méthodologique. Nous ferons l'étude des fluctuations pour les statistiques linéaires des valeurs propres du modèle 'information-plus-bruit' pour des fonctionnelles analytiques, et étendrons ces résultats au cas des fonctionnelles non analytiques. Le procédé d'extension est fondé sur des méthodes d'interpolation avec des quantités gaussiennes. Ce procédé est appliqué aux grandes matrices de covariance empirique. L'autre grande partie sera consacrée à l'estimation des valeurs propres de la vraie covariance à partir d'une matrice de covariance empirique en grande dimension et l'étude de son comportement. Nous proposons un nouvel estimateur consistant et étudions ces fluctuations. En communications sans fil, cette procédure permet à un réseau secondaire d'établir la présence de ressources spectrales disponibles.
|
545 |
Contribution à la réduction des pertes d'informations dans l'industrie du boisJover, Jeremy 13 December 2013 (has links) (PDF)
La conservation des informations dans les industries dont le processus de transformation est divergent a toujours induit d'importantes contraintes, et en particulier dans l'industrie du bois. Les solutions de traçabilité existant à l'heure actuelle ne permettent pas de conserver ces informations tout au long du cycle de vie du produit bois. L'objectif de cette thèse est de montrer la faisabilité de deux concepts contribuant à la conservation de l'information : le paradigme de matière communicante et le paradigme de Virtual Manufacturing. Avec le premier, il est possible de conserver les informations relatives à l'origine du produit par l'intermédiaire d'un marquage chimique appliqué à l'ensemble de la matière, lequel marquage sera identifié par Résonance Quadrupolaire Nucléaire. Dans le deuxième paradigme nous anticipons l'évaluation des caractéristiques des produits finaux en numérisant la matière et en virtualisant les opérations de transformation. Grâce à cela, il est possible de déterminer les caractéristiques des produits réels en prenant en compte l'imperfection des données et des décisions.
|
546 |
Production de la voix : exploration, modèles et analyse/synthèseHézard, Thomas 09 December 2013 (has links) (PDF)
Ce travail porte sur l'étude de la production de la voix. L'objectif principal est de proposer des solutions pour son analyse-synthèse qui permettent une large représentation de la diversité des signaux biométriques (observés en pratique) dans le cadre du paradigme source-filtre ou de modèles physiques simplifiés. L'étude est menée selon trois axes : l'exploration de l'activité laryngée, la modélisation de la phonation et l'analyse-synthèse sonore. Après une description de l'appareil phonatoire et de modèles d'analyse-synthèse actuels, la première partie s'intéresse à l'exploration de signaux biométriques. A partir du recensement des dispositifs actuels, nous proposons un outil de synchronisation qui révèle la complexité du mouvement 3D des plis vocaux. Une étude comparative avec un système acoustique à valve humaine similaire (lèvres d'un tromboniste) est menée et le développement d'un nouvel outil combinant deux techniques récentes d'imagerie électrique est proposé. Dans la deuxième partie, deux algorithmes d'analyse sont proposés pour un modèle source-filtre fondé sur une représentation tous-pôles causale-anticausale du signal vocal. Un calcul du cepstre complexe est proposé, garantissant l'holomorphie sur une couronne de convergence dans le domaine en Z. Cet outil est alors exploité pour la séparation de la source et du filtre. Enfin, des représentations paramétriques des signaux d'aire glottique sont exploitées pour piloter des modèles à géométrie forcée. Un modèle de synthèse, inspiré du modèle source-filtre mais intégrant l'effet du couplage entre la glotte et le conduit vocal, et des avancées sur la modélisation de conduit vocal à profil régulier sont présentées.
|
547 |
Compression Based Analysis of Image Artifacts: Application to Satellite ImagesRoman-Gonzalez, Avid 02 October 2013 (has links) (PDF)
This thesis aims at an automatic detection of artifacts in optical satellite images such as aliasing, A/D conversion problems, striping, and compression noise; in fact, all blemishes that are unusual in an undistorted image. Artifact detection in Earth observation images becomes increasingly difficult when the resolution of the image improves. For images of low, medium or high resolution, the artifact signatures are sufficiently different from the useful signal, thus allowing their characterization as distortions; however, when the resolution improves, the artifacts have, in terms of signal theory, a similar signature to the interesting objects in an image. Although it is more difficult to detect artifacts in very high resolution images, we need analysis tools that work properly, without impeding the extraction of objects in an image. Furthermore, the detection should be as automatic as possible, given the quantity and ever-increasing volumes of images that make any manual detection illusory. Finally, experience shows that artifacts are not all predictable nor can they be modeled as expected. Thus, any artifact detection shall be as generic as possible, without requiring the modeling of their origin or their impact on an image. Outside the field of Earth observation, similar detection problems have arisen in multimedia image processing. This includes the evaluation of image quality, compression, watermarking, detecting attacks, image tampering, the montage of photographs, steganalysis, etc. In general, the techniques used to address these problems are based on direct or indirect measurement of intrinsic information and mutual information. Therefore, this thesis has the objective to translate these approaches to artifact detection in Earth observation images, based particularly on the theories of Shannon and Kolmogorov, including approaches for measuring rate-distortion and pattern-recognition based compression. The results from these theories are then used to detect too low or too high complexities, or redundant patterns. The test images being used are from the satellite instruments SPOT, MERIS, etc. We propose several methods for artifact detection. The first method is using the Rate-Distortion (RD) function obtained by compressing an image with different compression factors and examines how an artifact can result in a high degree of regularity or irregularity affecting the attainable compression rate. The second method is using the Normalized Compression Distance (NCD) and examines whether artifacts have similar patterns. The third method is using different approaches for RD such as the Kolmogorov Structure Function and the Complexity-to-Error Migration (CEM) for examining how artifacts can be observed in compression-decompression error maps. Finally, we compare our proposed methods with an existing method based on image quality metrics. The results show that the artifact detection depends on the artifact intensity and the type of surface cover contained in the satellite image.
|
548 |
Infrastructure de compilation pour des programmes flux de donnéesWipliez, Matthieu 09 December 2010 (has links) (PDF)
Les programmes flux de données (" data flow " en anglais) sont des programmes décrits sous la forme d'un graphe afin de mettre en évidence un certain nombre de propriétés, comme le parallélisme disponible, la localité des données, la certitude de ne pas avoir d'inter-blocages, etc. Ma thèse présente les problématiques liées à la mise en place d'une infrastructure de compilation pour ce type de programmes. Cette infrastructure a pour but de compiler, analyser, transformer, et exécuter un programme flux de données sur différentes plateformes, depuis des composants logiques programmables jusqu'à des processeurs multi-coeurs avec mémoire partagée. Nous présentons les aspects théoriques associés aux problèmes de compilation, d'analyse et d'ordonnancement des programmes flux de données, ainsi que les aspects pratiques et les résultats obtenus concernant la génération de code et l'exécution de ces programmes.
|
549 |
Interprétation interactive de documents structurés : application à la rétroconversion de plans d'architecture manuscritsGhorbel, Achraf 11 December 2012 (has links) (PDF)
Cette thèse entre dans le cadre de projet ANR-Mobisketch (http://mobisketch.irisa.fr/). Ce projet vise à élaborer une solution logicielle générique orientée stylo pour la réalisation de documents techniques : schémas, plans... L'objectif est d'aboutir à un continuum entre un document technique sous sa forme papier et ce même document sous sa forme numérique interprétée. Ce continuum nécessite deux analyseurs cohérents : un pour la phase de reconnaissance et un autre pour la composition/édition. Nous nous sommes intéressés dans cette thèse à l'analyseur pour la reconnaissance de documents. Le but de nos travaux était d'élaborer une approche interactive, générique et incrémentale. L'originalité de notre méthode de reconnaissance, nommée IMISketch, est la sollicitation de l'utilisateur durant la phase d'analyse. En effet, le processus d'analyse est capable de solliciter l'utilisateur s'il rencontre des cas d'ambigüités. Deux cas d'ambigüité peuvent se présenter : l'ambigüité structurelle et l'ambigüité de forme. L'ambigüité structurelle est levée par le système d'analyse quand il hésite entre deux segmentations différentes pour interpréter un symbole. Par exemple, dans un plan d'architecture, une ambigüité structurelle peut être levée pour trouver la bonne segmentation des primitives entre un mur et un ouvrant (porte, fenêtre, etc.). L'ambigüité de forme est levée s'il existe plusieurs hypothèses concurrentes pour étiqueter un symbole, par exemple une ambigüité entre une porte et une fenêtre. L'intégration de l'utilisateur dans la boucle de reconnaissance évite une correction a posteriori fastidieuse des erreurs de reconnaissance tout en permettant d'avoir un système auto-évolutif au fur et à mesure de l'analyse. Le processus de reconnaissance est basé sur une séparation de l'analyseur et des connaissances liées au type de document à reconnaître. Les connaissances structurelles a priori du document sont exprimées à travers un langage visuel grammatical basé sur l'écriture de règles de production. L'application de chaque règle est quantifiée par l'attribution d'un score à chaque hypothèse sous tendue par une branche de l'arbre d'analyse. La description grammaticale ainsi produite permet de piloter l'analyseur. Notre analyseur à base de règles est capable de mettre en concurrence des hypothèses possibles d'interprétation, afin de solliciter l'utilisateur lorsque c'est nécessaire. De plus, afin de limiter la combinatoire, l'analyseur se base sur un contexte local de recherche. Nous avons également mis en place un processus d'exploration hybride original, guidé par la description grammaticale, qui permet d'accélérer localement l'analyse tout en limitant le risque de réaliser une fausse interprétation. Notre méthode interactive a été validée sur les plans d'architecture dessinés à main levée. Ces plans sont composés de murs, de trois types d'ouvrants et d'une dizaine de classes de mobilier. Ces travaux montrent que la sollicitation de l'utilisateur permet d'améliorer la qualité de reconnaissance des documents.
|
550 |
Méthodologie de compilation d'algorithmes de traitement du signal pour les processeurs en virgule fixe sous contrainte de précisionMénard, Daniel 12 December 2002 (has links) (PDF)
L'implantation efficace des algorithmes de traitement numérique du signal (TNS) dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire les contraintes de coût, de consommation et d'encombrement exigées par ces applications. Le codage manuel des données en virgule fixe est une tâche fastidieuse et source d'erreurs. De plus, la réduction du temps de mise sur le marché des applications exige l'utilisation d'outils de développement de haut niveau, permettant d'automatiser certaines tâches. Ainsi, le développement de méthodologies de codage automatique des données en virgule fixe est nécessaire. Dans le cadre des processeurs programmables de traitement du signal, la méthodologie doit déterminer le codage optimal, permettant de maximiser la précision et de minimiser le temps d'exécution et la taille du code. L'objectif de ce travail de recherche est de définir une nouvelle méthodologie de compilation d'algorithmes spécifiés en virgule flottante au sein d'architectures programmables en virgule fixe sous contrainte de respect des critères de qualité associés à l'application. Ce travail de recherche s'articule autour de trois points principaux. Le premier aspect de notre travail a consisté à définir la structure de la méthodologie. L'analyse de l'influence de l'architecture sur la précision des calculs montre la nécessité de tenir compte de l'architecture cible pour obtenir une implantation optimisée d'un point de vue du temps d'exécution et de la précision. De plus, l'étude de l'interaction entre les phases de compilation et de codage des données permet de définir le couplage nécessaire entre les phases de conversion en virgule fixe et le processus de génération de code. Le second aspect de ce travail de recherche concerne l'évaluation de la précision au sein d'un système en virgule fixe à travers la détermination du Rapport Signal à Bruit de Quantification (RSBQ). Une méthodologie permettant de déterminer automatiquement l'expression analytique du RSBQ en fonction du format des données en virgule fixe est proposée. Dans un premier temps, un nouveau modèle de bruit est présenté. Ensuite, les concepts théoriques pour déterminer la puissance du bruit de quantification en sortie des systèmes linéaires et des systèmes non-linéaires et non-récursifs sont détaillés. Finalement, la méthodologie mise en oeuvre pour obtenir automatiquement l'expression du RSBQ dans le cadre des systèmes linéaires est exposée. Le troisième aspect de ce travail de recherche correspond à la mise en oeuvre de la méthodologie de codage des données en virgule fixe. Dans un premier temps, la dynamique des données est déterminée à l'aide d'une approche analytique combinant deux techniques différentes. Ces informations sur la dynamique permettent de déterminer la position de la virgule de chaque donnée en tenant compte de la présence éventuelle de bits de garde au sein de l'architecture. Pour obtenir un format des données en virgule fixe complet, la largeur de chaque donnée est déterminée en prenant en compte l'ensemble des types des données manipulées au sein du DSP. La méthode sélectionne la séquence d'instructions permettant de fournir une précision suffisante en sortie de l'algorithme et de minimiser le temps d'exécution du code. La dernière phase du processus de codage correspond à l'optimisation du format des données en vue d'obtenir une implantation plus efficace. Les différentes opérations de recadrage sont déplacées afin de minimiser le temps d'exécution global tant que la précision en sortie de l'algorithme est supérieure à la contrainte. Deux types de méthode ont été mis en {\oe}uvre en fonction des capacités de parallélisme au niveau instruction de l'architecture ciblée. Cette méthodologie a été testée sur différents algorithmes de traitement numérique du signal présents au sein des systèmes de radio-communications de troisième génération. Les résultats obtenus montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
|
Page generated in 0.0829 seconds