Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
251 |
Algorithme de positionnement précis en environnement contraint basé sur un récepteur bas-coût GPS/GLONASSCarcanague, Sébastien 26 February 2013 (has links) (PDF)
Le GNSS (Global Navigation Satellite System), et en particulier sa composante actuelle le système américain GPS et le système russe GLONASS, sont aujourd'hui utilisés pour des applications géodésiques afin d'obtenir un positionnement précis, de l'ordre du centimètre. Cela nécessite un certain nombre de traitements complexes, des équipements coûteux et éventuellement des compléments au sol des systèmes GPS et GLONASS. Ces applications sont aujourd'hui principalement réalisées en environnement " ouvert " et ne peuvent fonctionner en environnement plus contraint. L'augmentation croissante de l'utilisation du GNSS dans des domaines variés va voir émerger de nombreuses applications où le positionnement précis sera requis (par exemple des applications de transport/guidage automatique ou d'aide à la conduite nécessitant des performances importantes en terme de précision mais aussi en terme de confiance dans la position -l'intégrité- et de robustesse et disponibilité). D'autre part, l'arrivée sur le marché de récepteurs bas-coûts (inférieur à 100 euros) capables de poursuivre les signaux provenant de plusieurs constellations et d'en délivrer les mesures brutes laisse entrevoir des avancées importantes en termes de performance et de démocratisation de ces techniques de positionnement précis. Dans le cadre d'un utilisateur routier, l'un des enjeux du positionnement précis pour les années à venir est ainsi d'assurer sa disponibilité en tout terrain, c'est-à-dire dans le plus grand nombre d'environnements possibles, dont les environnements dégradés (végétation dense, environnement urbain, etc.) Dans ce contexte, l'objectif de la thèse a été d'élaborer et d'optimiser des algorithmes de positionnement précis (typiquement basés sur la poursuite de la phase de porteuse des signaux GNSS) afin de prendre en compte les contraintes liées à l'utilisation d'un récepteur bas coût et à l'environnement. En particulier, un logiciel de positionnement précis (RTK) capable de résoudre les ambiguïtés des mesures de phase GPS et GLONASS a été développé. La structure particulière des signaux GLONASS (FDMA) requiert notamment un traitement spécifiques des mesures de phase décrit dans la thèse afin de pouvoir isoler les ambiguïtés de phase en tant qu'entiers. Ce traitement est compliqué par l'utilisation de mesures provenant d'un récepteur bas coût dont les canaux GLONASS ne sont pas calibrés. L'utilisation d'une méthode de calibration des mesures de code et de phase décrite dans la thèse permet de réduire les biais affectant les différentes mesures GLONASS. Il est ainsi démontré que la résolution entière des ambiguïtés de phase GLONASS est possible avec un récepteur bas coût après calibration de celui-ci. La faible qualité des mesures, du fait de l'utilisation d'un récepteur bas coût en milieu dégradé est prise en compte dans le logiciel de positionnement précis en adoptant une pondération des mesures spécifique et des paramètres de validation de l'ambiguïté dépendant de l'environnement. Enfin, une méthode de résolution des sauts de cycle innovante est présentée dans la thèse, afin d'améliorer la continuité de l'estimation des ambiguïtés de phase. Les résultats de 2 campagnes de mesures effectuées sur le périphérique Toulousain et dans le centre-ville de Toulouse ont montré une précision de 1.5m 68% du temps et de 3.5m 95% du temps dans un environnement de type urbain. En milieu semi-urbain type périphérique, cette précision atteint 10cm 68% du temps et 75cm 95% du temps. Finalement, cette thèse démontre la faisabilité d'un système de positionnement précis bas-coût pour un utilisateur routier.
|
252 |
Alignement temporel musique-sur-partition par modèles graphiques discriminatifsJoder, Cyril 29 September 2011 (has links) (PDF)
Cette thèse étudie le problème de l'alignement temporel d'un enregistrement musical et de la partition correspondante. Cette tâche peut trouver de nombreuses applications dans le domaine de l'indexation automatique de documents musicaux. Nous adoptons une approche probabiliste et nous proposons l'utilisation de modèles graphiques discriminatifs de type champs aléatoires conditionnels pour l'alignement, en l'exprimant comme un problème d'étiquetage de séquence. Cette classe de modèles permet d'exprimer des modèles plus flexibles que les modèles de Markov cachés ou les modèles semi-markoviens cachés, couramment utilisés dans ce domaine. En particulier, elle rend possible l'utilisation d'attributs (ou descripteurs acoustiques) extraits de séquences de trames audio qui se recouvrent, au lieu d'observations disjointes. Nous tirons parti de cette propriété pour introduire des attributs qui réalisent une modélisation implicite du tempo au plus bas niveau du modèle. Nous proposons trois structures de modèles différentes de complexité croissant, correspondant à différents niveaux de précision dans la modélisation de la durées des évènements musicaux. Trois types de descripteurs acoustiques sont utilisés, pour caractériser localement l'harmonie, les attaques de notes et le tempo de l'enregistrement. Une série d'expériences réalisées sur une base de données de piano classique et de musique pop permet de valider la grande précision de nos modèles. En effet, avec le meilleur des systèmes proposés, plus de 95 % des attaques de notes sont détectées à moins de 100 ms de leur position réelle. Plusieurs attributs acoustiques classiques, calculés à partir de différentes représentation de l'audio, sont utiliser pour mesurer la correspondance instantanée entre un point de la partition et une trame de l'enregistrement. Une comparaison de ces descripteurs est alors menée sur la base de leurs performances d'alignement. Nous abordons ensuite la conception de nouveaux attributs, grâce à l'apprentissage d'une transformation linéaire de la représentation symbolique vers une représentation temps-fréquence quelconque de l'audio. Nous explorons deux stratégies différentes, par minimum de divergence et maximum de vraisemblance, pour l'apprentissage de la transformation optimale. Les expériences effectuées montrent qu'une telle approche peut améliorer la précision des alignements, quelle que soit la représentation de l'audio utilisée. Puis, nous étudions différents ajustements à effectuer afin de confronter les systèmes à des cas d'utilisation réalistes. En particulier, une réduction de la complexité est obtenue grâce à une stratégie originale d'élagage hiérarchique. Cette méthode tire parti de la structure hiérarchique de la musique en vue d'un décodage approché en plusieurs passes. Une diminution de complexité plus importante que celle de la méthode classique de recherche par faisceaux est observée dans nos expériences. Nous examinons en outre une modification des modèles proposés afin de les rendre robustes à d'éventuelles différences structurelles entre la partition et l'enregistrement. Enfin, les propriétés de scalabilité des modèles utilisés sont étudiées.
|
253 |
Algorithmes de poursuite pour l'estimation de canal radio-mobile et performances asymptotiques: applications pour les systèmes OFDMShu, Huaqiang 06 November 2013 (has links) (PDF)
L'estimation de canal est une tâche cruciale du récepteur dans les systèmes de communication sans fil, en particulier en cas de mobilité où les paramètres du canal varient avec le temps. Dans cette thèse, un nouvel estimateur de boucle de poursuite d'ordre 3 (RW3-CATL), qui a une structure semblable à la boucle à verrouillage de phase (PLL) avec une faible complexité a été tout d'abord proposé pour estimer l'amplitude complexe du canal dans le cas mono-trajet mono-porteuse. Le lien entre un filtre de Kalman en régime asymptotique basé sur un modèle d'approximation de marche aléatoire (RW3-KF) et l'estimateur proposé est établi. Les expressions des paramètres sous-optimaux et d'EQM correspondante sont données sous forme analytiques en fonction des gains de boucle. Ensuite, les performances asymptotiques du RW3-KF ont été analysées en résolvant les équations de Riccati. L'expression analytique de la variance optimale du bruit d'état qui minimise l'EQM asymptotique a été également déduite. Pour les systèmes multi-trajet multi-porteuses, tels que les systèmes OFDM, la boucle RW3-CATL est étendue à la structure vectorielle (RW3-LS-CATL). Cette boucle conserve la même structure qu'en mono-trajet mono-porteuse, mais un signal d'erreur vectoriel adéquat est redéfini à partir d'un estimateur LS des amplitudes complexes des trajets, basé sur les pilotes du symbole OFDM courant et sur la connaissance a priori des retards des trajets. Par ailleurs, pour ce scénario, le filtre de Kalman, RW-KF estime conjointement les amplitudes complexes des trajets. Il présente une forte complexité, et nous n'avons pas de formules analytiques pour le régler. Pour réduire la complexité, nous proposons un filtre de dimension réduite, obtenu par une approximation du filtre original à l'aide des identités de Woodbury. Ce filtre revient à estimer l'amplitude complexe de chaque trajet de manière séparée. Le réglage optimal des paramètres est déduit du cas mono-trajet mono-porteuse. Les performances de ce filtre à complexité réduite, obtenues par simulation, sont quasiment les mêmes que celles du filtre de Kalman original.
|
254 |
Algorithmes d'approximation parcimonieuse inspirés d'Orthogonal Least Squares pour les problèmes inversesSoussen, Charles 28 November 2013 (has links) (PDF)
Ce manuscrit synthétise mon activité de recherche au CRAN entre 2005 et 2013. Les projets menés s'inscrivent dans les domaines des problèmes inverses en traitement du signal et des images, de l'approximation parcimonieuse, de l'analyse d'images hyperspectrales et de la reconstruction d'images 3D. Je détaille plus particulièrement les travaux concernant la conception, l'analyse et l'utilisation d'algorithmes d'approximation parcimonieuse pour des problèmes inverses caractérisés par un dictionnaire mal conditionné. Dans un premier chapitre, je présente les algorithmes heuristiques conçus pour minimiser des critères mixtes L2-L0. Ce sont des algorithmes gloutons << bidirectionnels >> définis en tant qu'extension de l'algorithme Orthogonal Least Squares (OLS). Leur développement est motivé par le bon comportement empirique d'OLS et de ses versions dérivées lorsque le dictionnaire est une matrice mal conditionnée. Le deuxième chapitre est une partie applicative en microscopie de force atomique, où les algorithmes du premier chapitre sont utilisés avec un dictionnaire particulier dans le but de segmenter automatiquement des signaux. Cette segmentation permet finalement de fournir une cartographie 2D de différents paramètres électrostatiques et bio-mécaniques. Le troisième chapitre est une partie théorique visant à analyser les algorithmes gloutons OMP (Orthogonal Matching Pursuit) et OLS. Une première analyse de reconstruction exacte par OLS en k itérations est proposée. De plus, une comparaison poussée des conditions de reconstruction exacte lorsqu'un certain nombre d'itérations ont déjà été effectuées fournit un éclairage sur le meilleur comportement d'OLS (par rapport à OMP) pour les problèmes mal conditionnés. Dans un quatrième chapitre, je dresse quelques perspectives méthodologiques et appliquées dans le domaine de l'analyse parcimonieuse en lien avec les chapitres précédents.
|
255 |
Amélioration des performances du traitement des interférences dans le domaine fréquentiel pour les communications acoustiques sous marinesYOUCEF, Abdelhakim 12 December 2013 (has links) (PDF)
Les communications acoustiques sous-marines permettent la transmission sans fils de l'information entre la surface et le fond via l'onde acoustique. Le lien acoustique sans fils réduit l'infrastructure matérielle nécessaire par rapport aux communications sous-marines câblées, permettant ainsi un déploiement à coût limité. Néanmoins, le canal acoustique sous-marin impose de sévères limitations de par ses caractéristiques de propagation qui diffèrent largement de celles du canal hertzien. La propagation multitrajets provoquée par les réflexions multiples sur le fond et la surface, engendre de l'interférence entre symboles qui doit être compensée à la réception. De plus, le mouvement des plateformes d'émission et de réception engendre un effet Doppler qui agit sur le signal comme un phénomène de compression/dilatation temporel de la durée symbole associé à un décalage fréquentiel du spectre. L'objectif de cette thèse est de proposer des techniques d'émission/réception de faible complexité calculatoire permettant de supprimer les interférences et de réduire le taux d'erreurs binaires sous la contrainte d'une efficacité énergétique de la transmission acoustique sous-marine. La réduction en complexité est assurée par le traitement d'interférences dans le domaine fréquentiel lequel permet de minimiser la consommation énergétique du système de transmission. Dans un premier temps, nous proposons des techniques d'égalisation fréquentielle adaptative en mode piloté par décision afin de compenser et de suivre la variation temporelle du canal acoustique sous-marin. Dans un second temps, nous proposons un schéma de transmission SC-FDMA mono-utilisateur en mode distribué uniforme en insérant des intervalles de garde fréquentiels afin d'améliorer la robustesse du lien de transmission contre l'effet Doppler du canal acoustique sous-marin. Enfin, nous proposons un turbo-égaliseur fréquentiel adaptatif basé sur un traitement itératif en réception et permettant de réduire le taux d'erreurs binaires au fil des itérations. Notons qu'un traitement multi-voies est considéré à la réception afin d'améliorer le rapport signal sur bruit et que l'égalisation est optimisée conjointement avec la synchronisation de phase pour compenser d'éventuels décalages fréquentiels résiduels. Les solutions proposées dans cette thèse sont validées expérimentalement sur des signaux réels issus d'enregistrements de transmission en milieu marin.
|
256 |
Analyse d'images SAR polarimétriques aéroportées pour l'estimation de paramètres bio-physiques des sols agricoles.Daniel, Sandrine 16 October 2009 (has links) (PDF)
Ce travail porte sur la faisabilité d'estimer l'humidité de différents types de sols agricoles cultivés à l'aide de données SAR polarimétriques acquises en bandes L par le radar aéroporté du centre aérospatial allemand E-SAR. Différents modèles électromagnétiques sont étudiés afin de simuler le comportement de la rétrodiffusion des ondes par les sols nus et recouverts de végétation et de déterminer l'influence de l'humidité du sol sur la réponse du radar. Par ailleurs, les sols agricoles à structure périodique sont modélisés afin de comprendre leur comportement électromagnétique particulier. Les méthodes d'inversion classiques sont démontrées non valides pour les sols périodiques. Ainsi, une nouvelle méthode d'inversion de l'humidité basée sur le paramètre polarimétrique alpha 1 est développée et appliquée sur des images radar contenant des sols nus. Différentes cartes d'humidité sont ainsi obtenues. De plus une méthode basée sur une décomposition temps-fréquence du signal radar permet de détecter ces champs non stationnaires. Une dernière étude est menée avec des images multi-dates sur des champs recouverts de végétation. Afin de déterminer la faisabilité d'estimer l'humidité de ces sols agricoles, une identification des différents types de végétation est nécessaire. Ainsi, une classification basée sur la méthode des machines à vecteur support et sur l'analyse du comportement des paramètres polarimétriques est développée. Les cartes de végétation résultantes permettent de suivre l'évolution temporelle des cultures.
|
257 |
Analyse de signaux analogiques/radiofréquences à l'aide de ressources digitales en vue du testPous, Nicolas 15 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire entrent dans le cadre de la réduction des coûts de production des circuits RF. En effet, la démocratisation de ces appareils pousse les industriels à chercher de nouvelles solutions afin de produire, à bas prix, ces circuits RF. Le test représentant une large partie du coût de ces produits, l'objectif de cette thèse a donc été de proposer une stratégie originale permettant d'effectuer l'analyse de signaux modulés à l'aide d'un équipement de test numérique faible coût. Tout d'abord, le manuscrit dresse un tableau général du test industriel et présente un éventail des solutions proposées dans la littérature pour réduire le coût du test des circuits RF, ainsi que des exemples d'utilisation du concept de " level-crossing ", méthode choisie pour effectuer la capture puis la reconstruction des signaux analogiques et RF. Les principes de base utilisés pour la reconstruction de signaux analogiques à partir d'informations temporelles sont ensuite abordés. L'élément clé des algorithmes de reconstruction est la détermination des instants de passage du signal par un seuil de tension prédéterminé. De cette information, il est ensuite possible de déterminer la phase, la fréquence et l'amplitude du signal observé. La suite est consacrée à l'analyse de signaux modulés. Dans un premier temps sur des modulations élémentaires, puis sur des schémas de modulations plus complexes, basés sur des cas d'étude concrets. Le travail se termine en abordant la prise en compte des non-idéalités de la chaîne d'acquisition. Il s'agit en particulier d'étudier l'impact de ces non-idéalités pour élaborer des algorithmes visant à compenser les erreurs résultantes.
|
258 |
Analyse de Signaux Multicomposantes : Contributions à la Décomposition Modale Empirique, aux Représentations temps-fréquence et au SynchrosqueezingOberlin, Thomas 04 November 2013 (has links) (PDF)
Les superpositions d'ondes modulées en amplitude et en fréquence (modes AM--FM) sont couramment utilisées pour modéliser de nombreux signaux du monde réel : cela inclut des signaux audio (musique, parole), médicaux (ECG), ou diverses séries temporelles (températures, consommation électrique). L'objectif de ce travail est l'analyse et la compréhension fine de tels signaux, dits "multicomposantes" car ils contiennent plusieurs modes. Les méthodes mises en oeuvre vont permettre de les représenter efficacement, d'identifier les différents modes puis de les démoduler (c'est-à-dire déterminer leur amplitude et fréquence instantanée), et enfin de les reconstruire. On se place pour cela dans le cadre bien établi de l'analyse temps-fréquence (avec la transformée de Fourier à court terme) ou temps-échelle (transformée en ondelettes continue). On s'intéressera également à une méthode plus algorithmique et moins fondée mathématiquement, basée sur la notion de symétrie des enveloppes des modes : la décomposition modale empirique. La première contribution de la thèse propose une alternative au processus dit ''de tamisage'' dans la décomposition modale empirique, dont la convergence et la stabilité ne sont pas garanties. Á la place, une étape d'optimisation sous contraintes ainsi qu'une meilleure détection des extrema locaux du mode haute fréquence garantissent l'existence mathématique du mode, tout en donnant de bons résultats empiriques. La deuxième contribution concerne l'analyse des signaux multicomposantes par la transformée de Fourier à court terme et à la transformée en ondelettes continues, en exploitant leur structure particulière ''en ridge'' dans le plan temps-fréquence. Plus précisément, nous proposons une nouvelle méthode de reconstruction des modes par intégration locale, adaptée à la modulation fréquentielle, avec des garanties théoriques. Cette technique donne lieu à une nouvelle méthode de débruitage des signaux multicomposantes. La troisième contribution concerne l'amélioration de la qualité de la représentation au moyen de la ''réallocation'' et du ''synchrosqueezing''. Nous prolongeons le synchrosqueezing à la transformée de Fourier à court terme, et en proposons deux extensions inversibles et adaptées à des modulations fréquentielles importantes, que nous comparons aux méthodes originelles. Une généralisation du synchrosqueezing à la dimension 2 est enfin proposée, qui utilise le cadre de la transformée en ondelettes monogène.
|
259 |
Analyse du potentiel migratoire de cellules cancéreuses par prétraitement, segmentation et classification d'imagesSyed, Tahir Qasim 13 December 2011 (has links) (PDF)
Ce travail de thèse s'insère dans un projet de recherche plus global dont l'objectif est d'analyser le potentiel migratoire de cellules cancéreuses. Dans le cadre de ce doctorat, on s'intéresse à l'utilisation du traitement des images pour dénombrer et classifier les cellules présentes dans une image acquise via un microscope. Les partenaires biologistes de ce projet étudient l'influence de l'environnement sur le comportement migratoire de cellules cancéreuses à partir de cultures cellulaires pratiqu ées sur différentes lignées de cellules cancéreuses. Le traitement d'images biologiques a déjà donné lieu à un nombre important de publications mais, dans le cas abordé ici et dans la mesure où le protocole d'acquisition des images acquises n'était pas figé, le défi a été de proposer une chaîne de traitements adaptatifs ne contraignant pas les biologistes dans leurs travaux de recherche. Quatre étapes sont détaillées dans ce mémoire. La première porte sur la définition des prétraitements permettant d'homogénéiser les conditions d'acquisition. Le choix d'exploiter l'image des écarts-type plutôt que la luminosité est un des résultats issus de cette première partie. La deuxième étape consiste à compter le nombre de cellules présentent dans l'image. Un filtre original, nommé filtre "halo", permettant de renforcer le centre des cellules afin d'en faciliter leur comptage, a été proposé. Une étape de validation statistique de ces centres permet de fiabiliser le résultat obtenu. L'étape de segmentation des images, sans conteste la plus difficile, constitue la troisième partie de ce travail. Il s'agit ici d'extraire des "vignettes", contenant une seule cellule. Le choix de l'algorithme de segmentation a été celui de la "Ligne de Partage des Eaux", mais il a fallu adapter cet algorithme au contexte des images faisant l'objet de cette étude. La proposition d'utiliser une carte de probabilités comme données d'entrée a permis d'obtenir une segmentation au plus près des bords des cellules. Par contre cette méthode entraine une sur-segmentation qu'il faut réduire afin de tendre vers l'objectif : "une région = une cellule". Pour cela un algorithme utilisant un concept de hiérarchie cumulative basée morphologie mathématique a été développé. Il permet d'agréger des régions voisines en travaillant sur une représentation arborescente de ces régions et de leur niveau associé. La comparaison des résultats iii obtenus par cette méthode à ceux proposés par d'autres approches permettant de limiter la sur-segmentation a permis de prouver l'efficacité de l'approche proposée. L'étape ultime de ce travail consiste dans la classification des cellules. Trois classes ont été définies : cellules allongées (migration mésenchymateuse), cellules rondes "blebbantes" (migration amiboïde) et cellules rondes "lisses" (stade intermédiaire du mode de migration). Sur chaque vignette obtenue à la fin de l'étape de segmentation, des caractéristiques de luminosité, morphologiques et texturales ont été calculées. Une première analyse de ces caractéristiques a permis d'élaborer une stratégie de classification, à savoir séparer dans un premier temps les cellules rondes des cellules allongées, puis séparer les cellules rondes "lisses" des "blebbantes". Pour cela on divise les paramètres en deux jeux qui vont être utilisés successivement dans ces deux étapes de classification. Plusieurs algorithmes de classification ont été testés pour retenir, au final, l'utilisation de deux réseaux de neurones permettant d'obtenir plus de 80% de bonne classification entre cellules longues et cellules rondes, et près de 90% de bonne classification entre cellules rondes "lisses" et "blebbantes".
|
260 |
Analyse et Interprétation d'Images : Analyse Multiéchelle pour la Description des Formes PlanairesKpalma, Kidiyo 14 October 2009 (has links) (PDF)
L'essor technologique, induit une production d'énormes masses de données électroniques et oblige à une adaptation des traitements du flux d'information correspondant. D'où un besoin d'outils d'aide à l'interprétation permettant des prises de décision dans les délais raisonnables. En matière d'imagerie numérique, les champs d'application sont vastes allant de l'utilisation domestique (appareil photo numérique, webcam ou simplement téléphone portable) jusqu'aux applications de type télédétection. L'évolution croissante du volume des données s'accompagne de contraintes, qu'il s'agisse du dépouillement des images de télédétection et c'est là que se situe un premier axe de nos travaux, ou du tri de photos, ou de la recherche d'une photo spécifique, prise à une certaine occasion en un lieu donné et c'est là le second axe de nos travaux. S'agissant de la télédétection, la multitude de satellites d'observation nous fournit une grande variété d'images. Celles-ci nous apportent des informations à la fois redondantes et complémentaires. Aussi s'avère-t-il judicieux de les combiner dans un processus de fusion pour en tirer des renseignements plus consistants et plus intelligibles. Traditionnellement, l'indexation et la recherche d'une photo se fait à l'aide d'une annotation par mots-clés. Compte-tenu des limitations de cette procédure, l'enjeu, aujourd'hui, est la détermination de descripteurs efficaces basés sur le contenu des images pour leur indexation. Toutes ces considérations visent à proposer des solutions alliant différents descripteurs dans un processus de fusion pouvant fournir un index hybride prenant en compte l'aspect sémantique du contenu de l'image. C'est dans ce contexte d'analyse d'images pour leur interprétation que se situent nos travaux de recherche dont le présent mémoire fait l'objet. Il s'articule en trois parties. Dans la première partie, nous présentons un résumé des activités tant du point de vue de l'enseignement que de la recherche : un aperçu de nos travaux de recherche retrace les études réalisées pour des applications de fusion en télédétection et pour la description des formes. La deuxième partie reprend plus en détails l'une de nos études sur le thème de l'analyse multi-échelle de contours d'objets planaires pour des applications de description et de reconnaissance de formes. On y présente ainsi la méthode MSGPR basée sur la carte des points d'intersection, méthode que nous proposons pour l'extraction d'un descripteur pour l'indexation des objets planaires. Pour finir, la dernière partie présente quelques articles représentatifs de nos activités de recherche : analyse de textures, recalage d'images, fusion d'image, analyse espace-échelle, reconnaissance de formes.
|
Page generated in 0.0972 seconds