• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 27
  • 7
  • 1
  • Tagged with
  • 100
  • 100
  • 39
  • 35
  • 22
  • 21
  • 19
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

New regularization methods for the inverse problem of parameter estimation in Ordinary differential equations / Nouvelles méthodes de régularisation du problème inverse d'estimlation de paramètres dans des équations différentielles ordinaires

Clairon, Quentin 09 April 2015 (has links)
Nous présentons dans cette thèse deux méthodes de régularisation du problème d’estimationde paramètres dans des équations différentielles ordinaires (EDOs). La première est une extensionde la méthode two-step, permettant d’obtenir une expression de la variance asymptotique etd’éviter l’usage de la derivée de l’estimateur non-paramétrique. Elle fait appel à la notion desolution faible et propose une caractérisation variationnelle de la solution de l’EDO. Ce faisant,elle identifie le vrai ensemble de paramètres comme celui respectant un ensemble de moments,fonctions plus régulières des paramètres que le critère des moindre carrés. Cette formulationgénérale permet de définir un estimateur s’appliquant à une large classe d’équations différentielles,et pouvant incorporer des informations supplémentaires disponibles sur la solution de l’EDO. Cesarguments, confortés par les resultats numériques obtenus, en font une approche compétitive parrapport aux moindres carrés. Néanmoins, cet estimateur nécessite l’observation de toutes lesvariables d’état.La seconde méthode s’applique également au cas partiellement observé. Elle régularise leproblème inverse par relaxation de la contrainte imposée par l’EDO en replaçant l’équationoriginale par une version perturbée. L’estimateur est ensuite défini à travers la minimisation d’uncoût profilé sur l’ensemble des perturbations possibles et pénalisant la distance entre le modèleinitial et le modèle perturbé. Cette approche introduit un problème d’optimisation en dimensioninfinie résolu grâce à un résultat fondamental de la théorie du contrôle optimal, le principedu maximum de Pontryagin. Il permet de ramener la résolution du problème d’optimisationà l’intégration d’une EDO avec condition aux bords. Ainsi, nous avons obtenu un estimateurimplémentable et que nous avons démontré consistent. Un intérêt particulier est porté au cas desEDOs linéaires pour lequel nous avons démontré la vitesse de convergence paramétrique et lanormalité asymptotique de notre estimateur. En outre, nous disposons d’une expression simplifiéedu coût profilé, ce qui facilite l’implémentation numérique de notre estimateur. Ces résultats sontdus à la théorie linéaire-quadratique, derivée du principe du maximum de Pontryagin dans lecas linéaire, elle assure l’existence, l’unicité et donne une expression simple de la solution duproblème d’optimisation définissant notre estimateur. A travers des exemples numériques nousavons montré que notre estimateur est compétitif avec les moindres carrés et le lissage généralisé,en particulier en présence d’une mauvaise spécification de modèle grâce à la relaxation du modèleoriginal introduite dans notre approche. Enfin, notre méthode d’estimation par utilisation de lathéorie du contrôle optimal offre un cadre pertinent pour traiter des problèmes d’analyse dedonnées fonctionnelles, ceci est illustré à travers un exemple dans le cas linéaire. / We present in this thesis two regularization methods of the parameter estimation problemin ordinary differential equations (ODEs). The first one is an extension of the two-step method,its initial motivations are to obtain an expression of the asymptotic variance and to avoid theuse of the derivative form of the nonparametric estimator. It relies on the notion of weak ODEsolution and considers a variational characterisation of the solution. By doing so, it identifiesthe true parameter set as the one satisfying a set of moments, which are smoother functions ofthe parameters than the least squares criteria. This general formulation defines an estimatorwhich applies to a broad range of differential equations, and can incorporate prior knowledgeson the ODE solution. Theses arguments, supported by the obtained numerical results, make ofthis method a competitive one comparing to least squares. Nonetheless, this estimator requiresto observe all state variables.The second method also applies to the partially observed case. It regularizes the inverseproblem thanks to a relaxation of the constraint imposed by the ODE by replacing the initialmodel by a pertubated one. The estimator is then defined as the minimizer of a profiled cost onthe set of possible perturbations and penalizing the distance between the initial model and theperturbated one. This approach requires the introduction of an infinite dimensional optimizationproblem solved by the use of a fundamental result coming from optimal control theory, the Pontryaginmaximum principle. Its application turns the resolution of the optimization problem intothe integration of an ODE with boundary constraints. Thus, we have obtained an implementableestimator for which we have proven consistency. We dedicate a thorough analysis to the caseof linear ODEs for which we have derived the parametric convergence rate and the asymptoticnormality of our estimator. In addition, we have access to a simpler expression for the profiledcost, which makes the numerical implementation of our estimator easier. Theses results are dueto linear-quadratic theory, derived from the Pontryagin maximum principle in the linear case, itgives existence, uniqueness and a simple expression of the solution of the optimization problemdefining our estimator. We have shown, through numerical examples, that our estimator is acompetitive one comparing to least squares and generalized smoothing, in particular in presenceof model misspecification thanks to the model relaxation introduced in our approach. Furthermore,our estimation method based on optimal control theory offers a relevant framework fordealing with functional data analysis problems, which is emphasized thanks to an example inthe linear case.
2

Comparaison de divers estimateurs pour la loi de poisson bivariée

Alhadji Kolo, Baba Madji January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Analyse chimique des inclusions fluides par ablation laser couplée à l’ICP-MS et applications géochimiques / Fluid inclusions analysis by LA-ICPMS and geochemical application

Leisen, Mathieu 16 November 2011 (has links)
L’étude des inclusions fluides individuelles, témoin des paléofluides, pose des défis analytiques majeurs aux géochimistes. La mise au point de la technique LA-ICPMS ouvre des perspectives prometteuses. Un triple objectif autour de l’utilisation de LA-ICPMS pour l’analyse d’inclusions fluides définit cette thèse. Tout d’abord, un travail basé sur la chimiométrie permettant de définir un protocole expérimental adaptable a été couplé à la réalisation de courbes de calibrage sur 3 à 4 ordres de grandeur pour tous les éléments analysés. Le développement d’une démarche rigoureuse basée sur un traitement du signal et un modèle thermodynamique a permis la quantification du contenu ionique (éléments majeurs et traces) des inclusions fluides. Le développement d’un logiciel de traitement des données est venu finaliser cet objectif. Enfin, l’étude de différentes cibles naturelles a été divisée en trois parties. Les halogénures Cl, Br et I sont des informations utiles dans l’étude de l’origine des fluides. Une approche originale basée sur la courbe de calibration de Br a permis d’analyser dans trois types de fluides différents les rapports Cl/Br. La seconde étude a porté sur l’analyse de l’argent et d’autres éléments des paragénèses contenus dans les fluides de différents gisements argentifères. La dernière partie est basée sur la faisabilité d’obtenir les concentrations des terres rares dans des inclusions fluides favorables / The study of paleofluids by using fluid inclusions analysis is an important challenge in geochemistry. The LA-ICPMS technique allows enlarging the field of possibilities by determining the cationic content in fluid inclusions. Three aims, with LA-ICPMS as the thesis centre, are developed here: (i) the calibration of LA-ICPMS associated with a work on chimiometry give the possibility of this analytical technique and experimental protocol adapted; (ii) The development of a calculation method based on Pitzer’s themodynamic model. The quantification of cationic content (trace and major elements) is improved. In parallel, a software is developed to facilitate the processing of raw signal, (iii) the study of different targets is made. The Cl/Br concentration ratios are used to get information of the fluids origin. Then, a analysis on four different natural targets linked with silver deposits is realized. The last point is the feasabilty of the determination of rare earth element in fluid inclusion of Mac Arthur River (Uranium deposit, Canada)
4

Modélisation statistique du Speckle en OCT : application à la segmentation d'images de la peau / Statistical modelization of speckle in Optical Coherence Tomography (OCT) : application of skin images segmentation

Mcheik, Ali 28 October 2010 (has links)
Cette thèse porte sur la segmentation d'images OCT cutanées. Cette modalité d'imagerie permet de visualiser les structures superficielles avec une profondeur de l'ordre du millimètre. En dermatologie, elle permet d'explorer l'épiderme et sa jonction avec le derme. Cependant, les images OCT sont sévèrement affectées par le bruit speckle. Ce phénomène conjugué à la complexité inhérente aux structures de la peau rend l'interprétation des images difficile même pour des experts. L'approche classique consiste à filtrer le speckle avant de faire des traitements de segmentation. A l'inverse, dans cette thèse nous exploitons exclusivement le bruit comme information pour segmenter. Notre approche repose sur la modélisation statistique du speckle. La segmentation se fait par classification des paramètres de ce modèle probabiliste. Ainsi, - On montre que le speckle ne suit pas une loi Rayleigh, comme cela est établi analytiquement. - On ajuste plusieurs lois de probabilité à l'amplitude OCT; et on montre que celle-ci est distribuée selon la loi Gamma généralisée. - On établit que les paramètres de cette loi discriminent statistiquement les couches de la peau. - On conçoit une méthode de segmentation par classification des paramètres locaux du speckle. Les nombreuses expérimentations faites sur plusieurs corpus d'images in-vivo confirment la validité de notre approche. / This thesis deals with the segmentation of skin OCT images. This modality provides the means to visualize superficial structures down to a millimeter depth. In dermatology, it is used to examine the epidermis and its junction with the dermis. However, OCT images are severely affected by the speckle noise. This random phenomenon added to the complexity of human skin structures makes the visual interpretation of images very difficult. Classical image processing techniques filter this noise prior to any segmentation step. In this thesis, we rely exclusively on the properties of the speckle to perform segmentation. Our approach is based on the statistical modeling of the speckle. Images are segmented by classifying parameters of the statistical model. Therefore, - We show that speckle does not follow the Rayleigh distribution, as developed analytically in the literature. - We fit various probability laws to model OCT signal amplitude ; we show that Generalized Gamma has the best goodness of fit. - We establish that statistical parameters of this distribution discriminate skin layers with good variability. - We develop a segmentation method based on the classification of local statistical parameters. The various experimental results with a number of in-vivo images reported in the thesis confirm the validity of our approach
5

Modélisation, observation et commande d'un drone miniature à birotor coaxial / Modelling, Estimation and Control of a Coaxial Rotor UAV

Koehl, Arnaud 19 March 2012 (has links)
Les drones miniatures à voilures tournantes tendent aujourd'hui à devenir les nouveaux outils du fantassin, grâce à la polyvalence des missions auxquelles ils peuvent être employés. Leur principal atout concerne leur capacité à combiner le vol stationnaire et le vol de translation rapide, dans des environnements étroits et encombrés. Nous proposons ici l'étude d'un nouveau concept de drone atypique appelé GLMAV (Gun Launched Micro Air Vehicle), qui consiste à amener un véhicule hybride projectile/drone très rapidement sur un site d'intérêt éloigné, en utilisant l'énergie fournie par une arme portable. La première tâche concerne la modélisation aérodynamique du GLMAV. L'identification paramétrique du modèle aérodynamique est alors réalisée à partir de données expérimentales d'efforts, que nous pouvons a priori quantifier par un critère algébrique d'excitabilité persistante. Nous proposons ensuite des techniques de filtrage, afin d'estimer les paramètres anémométriques inconnus mais nécessaires pour connaître l'environnement aérodynamique dans lequel l'engin évolue. De plus, pour palier à la défaillance de capteurs embarqués et qui peuvent affecter l'information de vitesse linéaire après le tir, nous proposons un estimateur d'ordre réduit de la vitesse linéaire. Dans ces deux problèmes d'estimation, nous prouvons la stabilité des observateurs proposés. Enfin, nous proposons une structure de commande pour la stabilisation de l'engin en vol quasi-stationnaire à partir d'un modèle de synthèse linéaire. Les efficacités des méthodes proposées sont illustrées par des résultats de simulations numériques et des essais expérimentaux / The miniature rotary wing UAVs are now tending to become the new tools of the soldier, with the versatility of missions they can be used. Their main advantage concerns their ability to combine the hovering and translational fast flight in narrow and congested environments. We propose the study of a new and atypical UAV concept called GLMAV (Gun Launched Micro Air Vehicle), which must bring a hybrid projectile/UAV very quickly on a site of interest, using the energy delivered by a portable weapon. The first task concerns the modelling of the aerodynamic GLMAV model. The parametric identification of the aerodynamic model is then realized from experimental load data, that can be a priori quantified by a persistent-excitability-algebraic-criterion. We then propose two filtering techniques to estimate the unknown aerodynamic parameters but needful to determine the aerodynamic environment in which the vehicle operates. In addition, to compensate the failure of embedded sensors that can affect the linear speed information after the shooting, we propose a reduced-order estimator to conserve a good linear speed information. In both estimation problems we prove the stability of the proposed observers. Finally, we propose a control scheme for the stabilization of the aircraft in the quasistationary flight mode from a linearized GLMAV model. The efficiencies of the proposed methods are illustrated through numerical results and experimental tests
6

Capture biomoléculaire impliquée dans la reconnaissance moléculaire supportée : modélisation et caractérisation expérimentale / Biomolecular capture involved in supported molecular recognition : modeling and experimental characterization

Robin, Maëlenn 23 May 2019 (has links)
Les immunoessais en phase solide sont utilisés pour le diagnostic in vitro afin de détecter ou de quantifier une molécule dans un échantillon biologique. Ils s'appuient sur l'interaction spécifique entre un antigène et un anticorps. Habituellement, des anticorps spécifiques aux antigènes à détecter sont immobilisés sur une surface solide pour capturer les antigènes d'intérêt et les séparer du reste de l'échantillon.Lors du développement d'un immunoessai, la sensibilité, la spécificité et le temps d’analyse sont optimisés par le choix - classiquement empirique - de ligands, de supports solides, de débits,… Une meilleure compréhension et prédiction des interactions moléculaires complexes se produisant au cours d’un immunoessai seraient utiles pour : identifier les paramètres critiques des immunoessais, simplifier et accélérer le processus d’identification des meilleures conditions opératoires et améliorer les immunoessais existants.L'instrument VIDAS®, commercialisé par bioMérieux, est l'un des systèmes d’immunoessais les plus utilisés dans les laboratoires cliniques. Dans ce travail de thèse, deux outils expérimentaux basés sur la chromatographie inverse sont construits et testés. Un modèle prédictif de la cinétique d'interaction anticorps/antigène est développé. Les outils expérimentaux, fonctionnant dans des conditions très proches du VIDAS®, sont utilisés pour valider le modèle et estimer ses paramètres caractérisant les interactions anticorps/antigène à partir de courbes expérimentales. Dans l’avenir et à partir des résultats, un des outils expérimentaux associé au modèle pourra être utilisé par bioMérieux pour concevoir des systèmes d’immunoessais / Solid-phase immunoassays are used for in vitro diagnostic to detect the presence or measure the concentration of a molecule of interest in a biological sample. They rely on the specific interaction between an antigen and an antibody. Usually, antibodies specific to the antigens to be detected are immobilized on a solid surface to capture the antigens of interest and separate them from the rest of the sample components. During solid-phase immunoassay development, sensitivity, specificity and time-to-result need to be optimized through the choice of dedicated ligands, solid supports, flow rates,… Classically, these choices are made empirically. A better understanding and prediction of the complex molecular interactions that occur in the different steps of a diagnostic immunoassay is likely to be useful to: identify the critical parameters of immunoassays, simplify and speed-up the process of identification of the best immunoassay conditions and improve the immunoassays currently available. The VIDAS® instrument, commercialized by bioMérieux is one of the most widely used immunoassay system in clinical laboratories worldwide. In this PhD work, two experimental tools based on inverse chromatography are built and tested. A predictive model of antibody/antigen interaction kinetics in immunoassays is developed. The experimental tools which mimic VIDAS® process conditions are used to validate the predictive model and to estimate model parameters characterizing antibody/antigen interaction kinetics from experimental curves. In the future, based on the results, one of the experimental tools associated with the model could be used by bioMérieux to design immunoassay systems
7

Mécanismes de genèse du ruissellement sur sol agricole drainé sensible à la battance. Etudes expérimentales et modélisation

Augeard, Bénédicte 31 March 2006 (has links) (PDF)
L'objectif de cette thèse est de décrire et de hiérarchiser les processus à l'origine du ruissellement sur les parcelles artificiellement drainées, en prenant en compte non seulement les fluctuations de la nappe superficielle, mais aussi la dégradation éventuelle de la structure du sol en surface. A cet effet, trois axes complémentaires de recherche ont été développés. <br />Le premier axe est consacré à l'étude de l'évolution de la structure de l'horizon travaillé du sol au cours d'une pluie en présence de nappe superficielle, grâce à des simulations de pluie en laboratoire. Les profils de masse volumique mesurés par radiographie aux rayons X indiquent que l'effondrement et le changement de masse volumique lié à la croûte de battance sont plus marqués en conditions initiales très humides. Le modèle proposé d'évolution de la masse volumique avec la profondeur et au cours de la pluie, reproduit correctement cet effet.<br />Le deuxième axe a pour objectif de déterminer les propriétés hydrodynamiques de la croûte de battance à partir de données issues de nouvelles simulations de pluie associées à un modèle s'appuyant sur la distribution de la masse volumique du sol avec la profondeur. Les paramètres de ce modèle, estimés par méthode inverse, sont comparables aux mesures de masse volumique effectuées par rayons X, et permettent de correctement reproduire le comportement hydraulique du système, confirmant la forte baisse de la conductivité hydraulique en surface due à la croûte de battance.<br />Enfin, le troisième axe s'appuie sur le suivi expérimental d'une parcelle agricole drainée du bassin versant de Mélarchez (Seine et Marne) associé à une modélisation (logiciel HYDRUS 2D). Les observations durant l'hiver 2003-2004 confirment que le ruissellement est globalement limité en raison de la présence du drainage. L'affleurement de la nappe reste le facteur prédominant à l'origine du ruissellement, même si la croûte de battance, créée notamment par ce premier type de ruissellement, est susceptible d'augmenter les quantités ruisselées. La modélisation permet d'étudier le comportement du système sous d'autres conditions pluviométriques. En particulier, les périodes de retour des pluies conduisant à l'affleurement de la nappe et les conditions d'écoulement lors de ces affleurements sont analysées.
8

Méthodes variationnelles et séquentielles pour l'étude de la contraction cardiaque

Moreau-Villéger, Valérie 15 December 2005 (has links) (PDF)
L'utilisation de l'imagerie médicale et de mesures électrophysiologiques pour l'étude du cœur permet de mieux comprendre son fonctionnement et les pathologies cardiaques, de fournir des outils d'aide au diagnostic et à la planification de thérapies. Dans cette thèse, nous nous intéressons à l'exploitation de ces données sous deux angles différents. La première partie du travail concerne l'estimation de mouvements dans des séquences d'images échocardiographiques à l'aide de l'imagerie par Doppler tissulaire (TDI). La deuxième partie de ce travail concerne l'analyse de mesures de l'activité électrique du cœur en estimant des paramètres d'un modèle électrophysiologique du cœur. La modalité TDI fournit une information quantitative sur la vitesse des tissus dans la direction de la sonde échographique. Le but de ce travail est d'étudier la déformation du muscle cardiaque en utilisant conjointement le TDI et l'échographie classique. Notre approche combine des calculs de flot optique par la méthode de Horn et Schunck sur la séquence classique d'images échographiques, la mesure partielle de vitesse issue de l'imagerie par Doppler tissulaire (TDI) et une régularisation spatio-temporelle pour estimer les champs de vitesse dans un cadre variationnel. Nous validons cette méthode sur des données synthétiques puis nous l'utilisons sur des séquences réelles. Dans la deuxième partie de cette thèse, nous nous intéressons à l'estimation de paramètres du modèle d'Aliev et Panfilov de propagation du potentiel d'action dans les ventricules en utilisant des mesures électrophysiologiques. Grâce à une collaboration avec le ''National Institutes of Health'', nous disposons des temps de dépolarisation mesurés sur l'épicarde de plusieurs cœurs de chiens. Les méthodes classiques ne permettent pas de minimiser l'écart entre le modèle et les données dans ce cas spécifique. Après une étape d'ajustement global, nous proposons de minimiser l'écart quadratique entre les données et le modèle en fonction d'un des paramètres que nous faisons varier localement. Le paramètre choisi est le coefficient de diffusion que nous appelons conductivité apparente car ses variations reflètent à la fois les variations de conductivité et les variations des paramètres de réaction. En utilisant la causalité de la propagation modélisée, nous ramenons le problème à des minimisations unidimensionnelles successives par la méthode de Brent. Nous appliquons cette approche à des données réelles dans des cas normaux et aussi dans des cas de cœurs infarcis. Dans ce dernier cas, nous trouvons une forte corrélation entre les zones de faibles conductivités apparentes et l'infarctus. A l'issue de ce travail, nous envisageons l'utilisation de ces méthodes avec des mesures moins invasives telles que celles obtenues par des systèmes intracavitaires sans contact ou même des électrocardiogrammes. Une autre perspective pour ce travail est l'estimation de paramètres d'un modèle du fonctionnement électromécanique du cœur à partir d'images de déplacement comme celles obtenues grâce à l'IRM marquée.
9

Lois stables et processus ponctuels :liens et estimation des paramètres

Liu, Shuyan 10 December 2009 (has links) (PDF)
L'objectif de cette thèse est d'étendre une méthode d'estimation des paramètres d'une loi stable dans Rd aux lois à queue régulière dans un cône arbitraire. La méthode d'échantillonnage par paquets est modifiée afin d'optimiser la vitesse de convergence des estimateurs. Un nouvel estimateur de la masse totale de mesure spectrale est proposé. Des résultats sur les statistiques d'ordre des lois à queue régulière dans un cône et la loi des grands nombres pour le schéma triangulaire sont établis. La consistance et la normalité asymptotique des estimateurs sont démontrées. La performance des estimateurs est étudiée par simulation. On compare ces estimateurs avec quelques estimateurs connus. Les tableaux de performance sont fournis. La méthode de noyau est utilisée pour estimer la densité d'une mesure spectrale absolument continue d'une loi à queue régulière. On prouve la consistance de l'estimateur dans notre cas particulier. Pour augmenter le nombre de points utilisés dans l'échantillon, on propose une méthode d'estimation utilisant les permutations aléatoires de l'échantillon. La variation régulière a la propriété d'être préservée par plusieurs opérations et transformations. On considère trois sortes de transformations. Des conditions suffisantes pour cette préservation sont proposées et quelques contre-exemples sont présentés. Les modèles de lois stables et de lois à queue lourde sont très utilisés dans plusieurs domaines d'application. On considère deux jeux de données réelles : les cours des 30 valeurs de l'indice DJIA et les perturbations planétaires des comètes du nuage de Oort. En appliquant la méthode d'estimation présentée on obtient des descriptions statistiques de ces données.
10

Méthodes d'estimation statistique pour le suivi de cibles à l'aide d'un réseau de capteurs

Ickowicz, Adrien 06 May 2010 (has links) (PDF)
Cette thèse s'intéresse à l'estimation des paramètres du mouvement d'une ou plusieurs cibles évoluant au sein d'une zone surveillée par un réseau de capteurs. Dans une première partie nous proposons de déterminer de façon exacte l'influence de paramètres d'influence du pistage à l'aide de la détermination d'une expression explicite d'une probabilité de bonne association. Nous parvenons à extraire l'influence de ces variables à l'aide de l'utilisation de méthodes numériques. Dans un deuxième temps nous nous intéressons à un type de capteurs bien particuliers. Nous supposons en effet que nous disposons de l'instant de plus grande proximité entre la cible et chaque capteur du réseau. A partir de ces données partielles, nous nous proposons de reconstruire la trajectoire de la cible. Après avoir montré que nous ne pouvions estimer conjointement la position et la vitesse de la cible, nous proposons des méthodes d'estimation du vecteur vitesse dans divers cas de trajectoire envisagés. Enfin, nous étudions dans la troisième partie de ce document le cas d'un réseau de capteurs binaires directionnels. Après une étude rapide sur l'estimation du vecteur vitesse dans le cas d'un mouvement rectiligne uniforme, nous étendons notre approche au cas ou le mouvement de la cible suivrait une marche aléatoire gaussienne, et nous proposons un nouvel algorithme permettant d'estimer conjointement les vecteurs vitesse et position. Nous proposons enfin une solution d'extension de notre algorithme au suivi multicible. Nous présentons dans chacun des scénarios des résultats de simulation illustrant les performances des méthodes proposées.

Page generated in 0.1687 seconds