• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 7
  • Tagged with
  • 33
  • 33
  • 33
  • 33
  • 9
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Une approche de calibrage géométrique de caméras par speckle laser pour la vision artificielle stéréoscopique active et passive

Samson, Éric 17 April 2018 (has links)
Le calibrage des caméras est l'une des pierres angulaires de la plupart des systèmes de vision artificielle car c'est cette opération qui établit le lien entre le monde physique et l'image. On dispose aujourd'hui de plusieurs techniques bien établies pour réaliser cette opération. Il existe toutefois certaines situations pour lesquelles les techniques usuelles ne sont pas assez précises. C'est le cas notamment des systèmes de vision 3D actifs. Les systèmes dits ``actifs'' disposent d'un mécanisme d'entraînement qui leur permet repositionner leurs caméras en temps réel. Puisque les mesures 3D en vision reposent sur la connaissance de la position relative des caméras, les déplacements de celles-ci à l'intérieur d'un système actif doivent être modélisés et calibrés afin que leur position exacte puisse être mise à jour en continue. Mener à bien ce type de calibrage exige que les déplacements des caméras puissent être mesurés avec une très grande précision. Cette thèse propose une approche pour le calibrage géométrique de caméras qui répond aux besoins en précision des systèmes actifs. L'originalité de cette approche vient du fait qu'elle exploite les propriétés du speckle laser. Les bases théoriques sur lesquelles elle s'appuie sont tirées du domaine de la mesure par speckle (``speckle metrology''). C'est la première fois que les principes de la mesure par speckle sont appliqués au domaine de la vision artificielle. L'intérêt de faire intervenir le speckle laser dans le calibrage est qu'il permet de découpler les composantes en rotation de celles en translation du mouvement des caméras. Dans le contexte des systèmes actifs, ce découplage des deux types de mouvements permet d'atteindre un niveau de précision de calibrage qu'il est impossible d'atteindre avec les approches classiques basées sur l'observation d'une cible de calibrage conventionnelle. Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant deux avantages pratiques importants. Le premier est que le dispositif permettant d'effectuer le calibrage est compact et le second est que le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. %Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant les avantages pratiques suivant. Le dispositif permettant d'effectuer le calibrage est compact. Le calibrage peut être complété avec moins de manipulations. Enfin, le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. / Because it establishes the link between image coordinates and the physical world, camera calibration is one of the corner stones of computer vision systems. Several existing techniques can perform this operation, but these are not always accurate enough, depending on circumstances. This is particularly the case for ``active'' 3D systems that incorporate mechanisms to allow real time repositioning of cameras. Since 3D measurements in computer vision rely on the knowledge of the relative camera positions, their exact movements within the active system must be updated in a continuous fashion. Calibrating such systems is only feasible when camera movements can be measured very accurately, which is not possible using current techniques. In this thesis, an original approach is proposed for the geometric camera calibration of active vision systems, based on the theoretical foundations of speckle metrology. It exploits the unique properties of laser speckle to meet the special requirements of active vision systems. It also represents the first use of laser speckle in this field. The main benefit of laser speckle is that it allows the measurement of rotational component of the camera movements independently from its translational component. The ability to perform independent measurements of these two components is what gives this new approach a much improved accuracy compared to conventional techniques based on the use of calibration targets. Besides the calibration of active vision systems, the proposed approach can be applied to other types of vision systems as well. In particular, the thesis shows that the proposed approach can also be applied to calibrate a classical pair of static stereoscopic cameras. The proposed technique show equivalent accuracy compared to conventional techniques while providing two major practical advantages. First, the calibration device is very compact and second, the calibration procedure doesn't require the working area of the stereo pair to be accessed.
22

Mesures de réflectométrie prises avec un interféromètre à peignes de fréquence

Taurand, Geneviève 17 April 2018 (has links)
Les développements technologiques et scientifiques des dernières années dans le domaine des lasers à impulsions ont permis l'essor d'une toute nouvelle méthode de détection multihétérodyne utilisant deux peignes de fréquence. Un petit nombre de groupes de recherche ont commencé à étudier diverses applications possibles avec ce que l'on appelle aujourd'hui l'interféromètre à peignes de fréquence. Ce mémoire présente différentes mesures de réflectométrie prises avec un interféro-mètre à peignes de fréquence. La première moitié est consacrée à la présentation de la théorie, de l'implémentation en laboratoire de l'instrument et comment il est utilisé en réflectométrie. Par la suite, des mesures d'échantillons montrent les performances épatantes de l'interféromètre à peignes de fréquence pour caractériser des composants optiques à fibre communs dans le domaine des télécommunications. De plus, une série de mesures consécutives montre la capacité de l'instrument de prendre des mesures instantanées permettant ainsi de suivre le profil de déformation mécanique d'un échantillon à fibre dans le temps. L'instrument est par la suite adapté afin de prendre des mesures de type tomographic sur une surface étendue d'un échantillon. Le premier résultat montre la capacité de l'instrument à prendre des mesures en profondeur tandis que le second présente une image en trois dimensions de la surface d'un échantillon. Pour terminer, une brève analyse des performances et limites du montage de l'interféromètre à peignes de fréquence permet d'introduire les améliorations futures de l'instrument.
23

Comparaison expérimentale de la thermographie modulée et de la thermographie pulsée pour l'évaluation non destructive des matériaux employés en aérospatial

Ben Larbi, Wael 16 April 2018 (has links)
Ce mémoire a pour but de comparer deux méthodes de contrôle non destructif : la thermographie modulée et la thermographie puisée, l'étude a été faite sur différents échantillons utilisés dans la construction aéronautique et est présentée sous forme de comparaison quantitative et qualitative, avec une explication des avantages et des inconvénients de chaque méthode.
24

Intégration d'un système vidéo de poursuite de cible à un simulateur "hardware in the loop" d'avion sans pilote et évaluation d'algorithmes de surveillance

Thériault, Olivier 17 April 2018 (has links)
L'emploi de véhicules aériens sans pilote pour surveiller l'environnement entourant les navires militaires est une avenue intéressante pour contrecarrer des menaces potentielles. Cet ouvrage présente le banc d'essais développé pour l'évaluation et l'analyse comparative d'algorithmes de surveillance de cible. Un système vidéo commercial de poursuite de cible a été intégré à un système "hardware in the loop" (HIL) d'avion sans pilote afin de retrouver la position d'une cible dans un environnement virtuel 3D. La démarche pour l'évaluation de la position de la cible est présentée. Le système HIL utilisé, les modifications matérielles et logicielles apportées ainsi que la performance du système sont décrits. Des algorithmes de surveillance allant des plus simples comme la navigation circulaire aux plus complexes basés sur la commande prédictive sont présentés, simulés sur le système HIL et comparés. Les résultats de cette analyse permettent d'établir les lignes directrices d'une stratégie de guidage efficace.
25

LDPC-coded modulation for transmission over AWGN and flat rayleigh fading channels

Yang, Rui 17 April 2018 (has links)
La modulation codée est une technique de transmission efficace en largeur de bande qui intègre le codage de canal et la modulation en une seule entité et ce, afin d'améliorer les performances tout en conservant la même efficacité spectrale comparé à la modulation non codée. Les codes de parité à faible densité (low-density parity-check codes, LDPC) sont les codes correcteurs d'erreurs les plus puissants et approchent la limite de Shannon, tout en ayant une complexité de décodage relativement faible. L'idée de combiner les codes LDPC et la modulation efficace en largeur de bande a donc été considérée par de nombreux chercheurs. Dans ce mémoire, nous étudions une méthode de modulation codée à la fois puissante et efficace en largeur de bande, ayant d'excellentes performances de taux d'erreur binaire et une complexité d'implantation faible. Ceci est réalisé en utilisant un encodeur rapide, un décoder de faible complexité et aucun entrelaceur. Les performances du système proposé pour des transmissions sur un canal additif gaussien blanc et un canal à évanouissements plats de Rayleigh sont évaluées au moyen de simulations. Les résultats numériques montrent que la méthode de modulation codée utilisant la modulation d'amplitude en quadrature à M niveaux (M-QAM) peut atteindre d'excellentes performances pour toute une gamme d'efficacité spectrale. Une autre contribution de ce mémoire est une méthode simple pour réaliser une modulation codée adaptative avec les codes LDPC pour la transmission sur des canaux à évanouissements plats et lents de Rayleigh. Dans cette méthode, six combinaisons de paires encodeur modulateur sont employées pour une adaptation trame par trame. L'efficacité spectrale moyenne varie entre 0.5 et 5 bits/s/Hz lors de la transmission. Les résultats de simulation montrent que la modulation codée adaptative avec les codes LDPC offre une meilleure efficacité spectrale tout en maintenant une performance d'erreur acceptable.
26

Generalized spatio-temporal channel and system characterization

Pham, Viet Ha 16 April 2018 (has links)
Le développement rapide de la technologie des télécommunications à entrées et à sorties multiples MIMO met la caractérisation et modélisation de canaux sans fil dans une nouvelle perspective. Des recherches additionnelles sur la caractérisation et la modélisation de canaux sont nécessaires pour les déploiements de ces systèmes MIMO. En outre, de nouvelles techniques de caractérisation et de modélisation des canaux sont nécessaires pour faciliter la recherche sur la caractérisation et modélisation du canal MIMO. Trois contributions majeures sont présentées dans cette thèse. Tout d'abord, nous proposons une représentation généralisée et systématique des systèmes et des canaux sans fil dans les domaines spatio-temporels. Celle-ci peut être interprétée comme une extension des travaux de Bello [1, 2] et une généralisation des concepts introduits dans la littérature récente sur les canaux multiples. Dans ce cadre théorique, on propose un ensemble de seize fonctions noyau (kernel) et huit fonctions système et un ensemble de huit fonctions noyau dans le contexte de systèmes pratiques : ceux-ci sont définis dans le temps, la fréquence, l'espace et le vecteur d'onde pour la caractérisation du canal et du système MIMO. L'utilisation du cadre pratique est illustrée par une série d'exemples en utilisant des mesures basées sur des signaux de télévision numérique ATSC aux fréquences UHF. Les résultats étudiés comprennent les fonctions noyau spatiales mesurées, les spectres reçus dans le vecteur d'onde pour les canaux de liaison descendante et les fonctions de corrélation spatiale pour les canaux de liaison montante Deuxièmement, une nouvelle technique de mesure du signal dans l'espace et dans le temps, ainsi qu'une technique d'estimation du spectre dans le domaine des vecteurs d'onde et en fréquence sont proposées. La technique proposée permet de caractériser un grand réseau d'antenne virtuel à partir d'un nombre limité d'éléments d'antenne en déplaçant les éléments d'antenne le long d'une trajectoire prédéfinie. Une technique d'étalonnage est également proposée pour estimer le spectre de vecteur d'onde des signaux mesurés. Le compromis de cette technique est une faible précision de l'estimation si l'étalement des angles d'arrivée est trop grande. Les performances d'estimation du spectre sont évaluées par une série de simulations. Troisièmement, une vision globale du phénomène Doppler est présentée du point de vue de la technique de caractérisation proposée. Les spectres de Doppler, provoques par la mobilité des diffuseurs sous différentes distributions de vitesse de diffuseur, sont étudiés en profondeur. Ces résultats s'appliquent au scénario sans fil fixe pour lesquel l'émetteur et le récepteur sont fixes, tandis que les diffuseurs sont mobiles. Les modèles analytiques sont comparés avec les courbes empiriques, extraites d'autres publications dans la littérature, afin de valider la méthode proposée. Les résultats obtenus montrent que notre modèle théorique, pour un distribution exponentielle de vitesse de diffuseur, suit de près les courbes mesurées dans les canaux à variations lentes. En outre, des recherches supplémentaires sont nécessaires pour les canaux à variations rapides, par exemple, lorsque les voitures en mouvement sont considérées comme des diffuseurs mobiles.
27

Performance improvement of SS-WDM passive optical networks using semiconductor optical amplifiers: Modeling and experiment

Mathlouthi, Walid 17 April 2018 (has links)
Les sources incohérentes sont proposées comme alternatives aux lasers stabilisés en longueur d'onde pour réduire le coût des réseaux optiques passifs utilisant le multiplexage par longueur d'onde découpée dans le spectre (SS-WDM PONs). À cause de leur nature incohérente, ces sources génèrent au récepteur un large bruit d'intensité. Ce bruit limite l'efficacité spectrale et/ou le taux binaire pouvant être achevé. Cette thèse étudie l'utilisation des amplificateurs optique à semi-conducteur SOAs pour nettoyer le bruit d'intensité. De plus, lors de cette thèse, nous explorons les outils numériques et expérimentaux qui nous permettent d'analyser les performances des SOAs dans le cadre de systèmes de communication multi-canaux, incluant le SS-WDM. Nous présentons des modèles mathématiques pour le bruit d'intensité, ce bruit étant celui qui limite les performances des systèmes de communication utilisant des sources incohérentes. Nous discutons les dynamiques complexes des SOAs et présentons les équations qui gouvernent l'évolution des porteurs de charges dans ces amplificateurs. Nous identifions et soulignons l'effet des paramètres les plus importants, qui affectent le processus ainsi que la dynamique de nettoyage du bruit d'intensité. Nous passons en revue, les différentes techniques de nettoyage de bruit avec les SOAs, qui ont démontré les meilleurs résultats connus. De plus, nous effectuons une revue de littérature poussée pour ce qui a attrait au problème de post-filtrage lorsque le SOA est placé au transmetteur, avant la modulation. Notre première contribution pendant ce travail de recherche est de démontrer, en utilisant l'intermodulation de gain d'un SOA au récepteur pour convertir le signal incohérent en laser cohérent, une amélioration significative du taux d'erreur binaire BER. Cette méthode est spectralement efficace, d'autant plus qu'elle ne souffre point la limitation occasionnée par le post-filtrage au récepteur. En contre partie elle nécessite un ample budget de puissance qui doit assurer une saturation suffisante de l'amplificateur au récepteur. Une source laser est aussi nécessaire au récepteur. Ceci est un inconvénient, même si une telle source n'ait pas besoin d'une quelconque stabilisation. Pour contourner le problème causé par le post-filtrage quand le SOA est au transmetteur, nous proposons un nouveau récepteur pour les systèmes de communication WDM, qui permet de mieux garder le nettoyage de bruit, et ce malgré le filtrage optique au récepteur. La nouvelle méthode consiste en un détecteur balancé utilisé au récepteur: d'un bord, tous les canaux sont détectés sans distinction. De l'autre, le signal désiré est bloqué pendant que tous les autres canaux sont détectés. Avec cette méthode, il est facile de saturer l'amplificateur pour une meilleure suppression de bruit tout en évitant en grande partie la dégradation causé par le post-filtrage. Nous avons expérimentalement démontré un système WDM dense de 8 x 10 Gbps avec une source incohérente et un SOA en saturation. Une autre contribution originale de ce travail est le développement d'un outil de simulation pour les SOAs qui est numériquement plus efficace et léger que les modèles connus à ce jour. Nous avons donc développé un modèle théorique simple, pouvant être implémenté par diagramme block, dans le but de simuler les performances des hens de communications WDM. Notre modèle démontre une bonne concordance avec les résultats expérimentaux ainsi qu'une diminution de temps de calcul de l'ordre de 20 fois. Finalement, lors de la dernière partie de ces travaux, nous nous sommes occupés de mesurer, de façon précise, le temps de recouvrement du gain dans un SOA. Le temps de recouvrement des porteurs dans un SOA est un des paramètres les plus importants qui sont à l'origine du phénomène de nettoyage de bruit et qui régissent le comportement ainsi que les dynamiques de l'amplificateur. Nous avons étudié en particulier, la dépendance de ce temps de recouvrement r de la longueur d'onde. Pour le SOA utilisé lors de notre étude expérimentale, nous avons démontré que r dépendait de la longueur d'onde de façon similaire au spectre de gain. Ces mesures ont été possibles grâce au développement d'un nouveau dispositif de mesure pompe/sonde, qui permettait de mesurer le recouvrement du gain pour une pompe et une sonde à la même longueur d'onde et ayant le même état de polarisation.
28

Animation basée sur la physique : extrapolation de mouvements humains plausibles et réalistes par optimisation incrémentale

Quirion, Sébastien 17 April 2018 (has links)
L'objectif de nos travaux est de faire la synthèse de mouvements plausibles et réalistes de marche humaine dans divers environnements de synthèse. Bien que la solution proposée puisse également s'appliquer aux autres mouvements de locomotion humains ou animaux, nos travaux traitent uniquement du problème de la marche humaine. Afin de résoudre ce problème, nous avons développé une approche permettant de générer une multitude de variations d'une animation issue de capture de mouvement. Ces variations sont obtenues en adaptant le mouvement original à un environnement de synthèse dont les paramètres, tels que l'inclinaison du sol ou la courbure de la trajectoire, sont variés. Nous sommes donc en mesure de produire un mouvement de marche courbe ou de marche sur un plan incliné à partir d'un mouvement de marche en ligne droite sur un sol horizontal, ce que nous qualifions d'extrapolation de mouvement. Une animation initiale, obtenue par capture de mouvement, est essentielle à la solution proposée. Adapter ce mouvement à un nouvel environnement de synthèse consiste essentiellement à ajuster les caractéristiques globales du mouvement, telles que l'orientation du personnage et sa vitesse de déplacement. Ce faisant, nous sommes en mesure de conserver les détails plus fins du mouvement qui lui confèrent son aspect humain, tels que le mouvement des bras ou la vitesse avec laquelle un pied entre en contact avec le sol. En conservant les détails fins du mouvement d'origine, la solution proposée assure un certain réalisme dans les mouvements synthétisés. Dans la solution proposée, l'adaptation du mouvement initial est basée sur le paradigme des contraintes spatio-temporelles, où la synthèse du mouvement est posée comme un problème d'optimisation numérique. En plus d'être une formulation élégante du problème, ce paradigme est tout indiqué pour faire la synthèse de mouvements physiquement plausibles. En combinant ce paradigme avec l'utilisation d'une animation initiale issue de capture de mouvement, nous sommes en mesure de produire des animations de mouvements humains plausibles et réalistes. En pratique, le problème d'optimisation sous-tendu par l'adaptation d'un mouvement par contraintes spatio-temporelles est fortement non linéaire et opère dans un espace à très grande dimensionnalité. Cette complexité peut fortement ralentir le processus d'optimisation et aller jusqu'à en empêcher la convergence. La solution proposée fait donc appel à plusieurs mécanismes afin de réduire cette complexité. Notons qu'aucun de ces mécanismes ne vient compromettre la polyvalence de l'approche, en limitant la complexité du modèle biomécanique du personnage par exemple. Parmi ces mécanismes, deux sont des contributions originales : une technique d'estimation rapide des forces de réaction du sol et une approche d'optimisation incrémentale. Ces deux mécanismes visent à simplifier le processus d'optimisation en fournissant une solution initiale très proche de la solution optimale. La technique d'estimation des forces de réaction du sol sert à donner à ces paramètres une valeur initiale qui est relativement proche de leur valeur optimale, ce qui simplifie significativement la tâche d'optimisation subséquente. Cette technique consiste à trouver, pour les phases de support double, les forces de réaction du sol minimisant l'effort interne du personnage. Ce problème peut être exprimé comme une séquence de sous-problèmes de programmation quadratiques. Cette formulation est un aspect central de notre contribution et elle permet d'atteindre la solution très efficacement. L'approche d'optimisation incrémentale proposée s'inspire des méthodes de continuation. Le mouvement original est considéré comme une solution, un mouvement optimal, pour l'environnement de capture. L'environnement de synthèse est ensuite modifié graduellement, en augmentant l'inclinaison du sol par petits incréments par exemple. À chaque incrément, un nouveau mouvement optimal est trouvé en utilisant la solution de l'incrément précédent comme point de départ. On procède de la sorte jusqu'à l'obtention du mouvement désiré pour l'environnement de synthèse considéré. Si les incréments sont suffisamment petits, la différence entre deux problèmes d'optimisation consécutifs sera petite et il en sera de même pour leur optimum respectif.
29

Segmentation région-contour des contours des lèvres

Bouvier, Christian 17 April 2018 (has links)
La thèse présentée a été effectuée en cotutelle entre l'Institut Polytechnique de Grenoble et l'université Laval à Québec. Les travaux ont impliqué les laboratoires universitaire GIPSA-lab à Grenoble et le Laboratoire de Vision et Systèmes Numériques de l'Université Laval (LVSN). Notre étude porte sur la segmentation des contours internes et externes des lèvres. L'objectif visé dans notre étude est de proposer un ensemble de méthodes permettant de modéliser précisément la zone de la bouche avec la meilleure robustesse possible. Par robustesse, notre [sic] entendons obtenir une méthode fiable qui ne nécessite pas de réglage de paramètres et qui permette une segmentation fidèle des contours externes et internes de la bouche. Dans un premier temps, une approche combinée région-contour est introduite dans le but d'obtenir une segmentation multi-locuteur de la bouche sur des images de visage en couleurs. Nous décrivons une approche par décorrélation permettant d'augmenter le contraste entre la peau et les lèvres sur des images en couleurs ainsi qu'une étude sur les gradients multi-échelles pour améliorer la robustesse de la modélisation des contours de la bouche. Ensuite nous présentons notre méthode de localisation et de segmentation région-contour de la bouche sur des images de visage en couleurs. Dans un second temps nous nous sommes intéressés à la détection de l'état de la bouche. L'étape de détection de l'état de la bouche est nécessaire à la modélisation de la région interne qui présente une grande variabilité de forme et de texture. Une approche bioinspirée, basée sur un modèle de rétine et de cortex visuel conduisant au calcul d'un spectre Log-polaire, a été développée pour modéliser la zone de la bouche. Ces spectres sont, ensuite, utilisés pour entraîner un réseau SVM destiné à identifier l'état de la bouche. D'autre part, de nombreux auteurs ont suggéré d'utiliser la modalité infrarouge en analyse faciale. Le LVSN possédant une solide expertise dans le domaine de la vision infrarouge, une étude sur la pertinence de la modalité infrarouge dans le cadre de la segmentation des lèvres est proposée. Après avoir localisé la bouche et identifié l'état de la bouche, nous nous intéressons alors à la segmentation des contours externes et internes de la bouche. Un modèle polynomial de contour externe, dont la complexité sera automatiquement adaptée en fonction de la bouche traitée, est présenté. L'aspect de la zone interne de la bouche pouvant varier très rapidement, l'extraction du contour interne est particulièrement difficile. Nous proposons de traiter ce problème par une méthode de classification non-supervisée pour sélectionner les régions internes de la bouche. La méthode de modélisation de contour par un modèle polynomial est par la suite appliquée pour extraire le contour interne de la bouche. Enfin, une analyse quantitative de la performance globale de l'extraction des contours internes et externes est réalisée par comparaison avec des vérités-terrain.
30

Imagerie Isar à l'aide de l'algorithme génétique

Martin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.

Page generated in 0.0171 seconds