• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Estimation par satellite de l'humidité spécifique au dessus de l'océan par radiométrie hyperfréquence

Mbengue, Abdou Aziz 26 January 2009 (has links) (PDF)
L'océan joue un rôle très important dans la régulation du climat de la terre à travers les échanges de chaleur avec l'atmosphère, qui se font en grande partie sous forme de Flux de Chaleur Latente (FCL). Ce dernier dépend notamment de l'humidité spécifique à quelques mètres au-dessus de la surface. Cette dernière variable est encore mal maîtrisée dans les modèles météorologiques, et trop peu d'observations sont disponibles à l'échelle du globe pour calculer des champs d'humidité et de flux de chaleur latente, pourtant nécessaires pour forcer les modèles océaniques, par exemple. Dans ce travail, on analyse le potentiel des données de télédétection spatiale pour estimer l'humidité de surface. L'intérêt majeur des satellites est qu'ils nous permettent d'observer l'ensemble des océans à une échelle temporelle de quelques jours seulement. Afin de restituer l'humidité spécifique, nous nous servons des données de températures de brillance mesurées par les radiomètres hyperfréquences AMSU-A (Advanced Microwave Sounding Unit - A) et AMSU-B embarqués à bord des satellites NOAA 15, 16 et 17. AMSU-A comporte 15 canaux entre 23.8 GHz et 89 GHz, avec une résolution de 48 Km, et AMSU-B comporte 5 canaux entre 89 GHz et 183.31 GHz, et a une résolution de 16 Km. Nous utilisons les radiomètres AMSU parce qu'ils possèdent un nombre important de canaux (20 canaux au total), dont certains sont sensibles à la vapeur d'eau. Malgré leur potentiel intéressant, les radiomètres AMSU ont jusqu'ici été peu exploités pour la restitution de l'humidité de surface. Deux approches sont utilisées pour faire cette restitution : la régression linéaire multiple et les réseaux de neurones artificiels. Grâce à cette dernière méthode, nous avons pu restituer l'humidité de surface avec une amélioration de 21.8% par rapport à l'algorithme de référence (Bentamy et al., 2003). Ceci se traduit par un écart rms de 0.86 g/kg, par rapport aux données de validation, qui sont les observations horaires des mouillages TAO et PIRATA. L'ensemble des résultats trouvés au cours de cette étude indique clairement que le satellite apporte un point de vue complémentaire par rapport aux modèles opérationnels et par rapport aux observations, vis-à-vis de l'humidité de surface.
142

Quelques aspects fonctionnels et non fonctionnels des grandes déviations et des déviations modérées en estimation non-paramétrique

Ould Maouloud, Sidi Mohamed 14 December 2007 (has links) (PDF)
Cette thèse traite quelques aspects fonctionnels et non fonctionnels des grandes déviations et des déviations modérées en estimation fonctionnelle. Nous avons introduit dans la première partie un processus qui nous a permis de traiter de façon unifiée l'estimation de la fonction de densité et de la fonction de régression en utilisant plusieurs méthodes d'estimation. Plus explicitement, des principes de grandes déviations fonctionnels et non fonctionnels et des résultats de type Chernoff ponctuels et uniformes ont été obtenus. Dans un premier lieu nous avons établi un principe fonctionnel de grandes déviations pour l'estimateur par la méthode du noyau de la fonction de régression indexé par une famille de fonction vérifiant les conditions du théorème d'Arzèla-Ascoli. Ces résultats ont été utilisés pour définir un critère de sélection de modèles. Par la suite, dans la deuxième partie, nous nous sommes intéressé à 'estimation de la fonction de densité et de la fonction de régression par la méthode des histogrammes et nous avons obtenu des principes de grandes déviations ponctuels, des résultats de type Chernoff ponctuels et uniformes pour ces estimateur ainsi que des résultats de type minimax. Enfin dans les deux dernières parties, nous avons établi des principes fonctionnels de grandes déviations dans l'espace $L^1$ pour les estimateurs par la méthode des delta-suites des fonctions de densité et de régression ainsi qu'un principe de déviations modérées dans $L^1$ pour l'estimateur de la fonction de densité par la méthode des histogrammes.
143

Comparaisons de projections des niveaux d'incapacité de la population canadienne de 65 ans et plus en 2031

Bellehumeur, Patrick 01 1900 (has links)
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur. / Population ageing in Canada in the forth coming years will bring important changes from the social viewpoint. One of them will be the increasing number of disabled older people. Using the microsimulation Lifepaths model, the study compares two projections, each having a different methodology, of the number of disabled individuals aged 65 and over and living in the community in 2031. The projections were produced using different methodologies. The first method uses the disability module of Lifepaths to generate those disabled older population while the second method uses an ordered logistic regression model. Then, we compare the results between the methods. Furthermore, this research paper attempts to identify the possible causes leading to the differences with appropriate graphs and tables. The results show important differences between the projections, especially for the number of severe disabled individuals. We note important difference for men and married people. Also the age groupe 80 years and older and the projection for de province of Quebec is problematic.These could be the attributed to the characteristics of a microsimulation model, the population at the base as well as the defined parameters. Both methods have different results, we cannot conclude what will be the situation in the future.
144

Les déterminants de l'accès à l'emploi chez les jeunes diplômés de la formation professionnelle au Maroc

Schonholzer, Jennifer January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
145

Défense et illustration de l'infinitisme épistémique

Lévesque, Marc-André 09 1900 (has links)
Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable. / This dissertation focuses on the problem of epistemic regression which questions the possibility of justification. For this reason we’ll take interest in the details of epistemic regression and in the solutions that different critics offer to solve the problem. Generally, two positions oppose each other : foundationalism and coherentism. The first one proposes to stop the regression at a foundation, as the second one takes concern about the coherence shared amongst the beliefs. However the purpose of this dissertation is to present and defend a third position : infinitism. Introduced in the 1990’s by Peter Klein, infinitism is one of the most recent theories of justification. Although it is quite appealing, Klein’s theory is not very popular and few people defend this position. Infinitism offers to solve the problem of regression by basing the justification of the beliefs on series of infinite and non repetitive reasons. Consequently, infinitism reverses the initial problem because infinite regression is often perceived as an issue for knowledge and a source for scepticism. Our goal is to demonstrate that infinitism is the best way to solve the problem of epistemic regression. Therefore, we’ll synthesize the arguments in favor of infinitism and that will mark out three types of infinitism from which we’ll retain one, an impure form of infinitism, as best suited to answer the problem of regression. Finally we’ll respond to the main oppositions to infinitism in order to demonstrate that it is in fact a viable theory of justification.
146

Régression logistique bayésienne : comparaison de densités a priori

Deschênes, Alexandre 07 1900 (has links)
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5. / Logistic regression is a model of generalized linear regression (GLM) used to explain binary variables. The model seeks to estimate the probability of success of this variable by the linearization of explanatory variables. When the goal is to estimate more accurately the impact of various incentives from a marketing campaign (coefficients of the logistic regression), the identification of the choice of the optimum prior density is sought. In our simulations, using the MCMC method of slice sampling, we compare different prior densities specified by different types of density, location and scale parameters. These comparisons are applied to samples of different sizes generated with different probabilities of success. The maximum likelihood estimate, Gelman’s method and Genkin’s method complement the comparative. Our simulations demonstrate that the MCMC method with a normal prior density centered at 0 with variance of 3,125, the MCMC method with a Student prior density with 3 degrees of freedom centered at 0 with variance of 3,125 and Gelman’s method with a Cauchy density centered at 0 with scale parameter of 2,5 get estimates that are globally the most accurate of the coefficients of the logistic regression.
147

Contribution à l'analyse statistique des données fontionnelles / Contribution to statistical analysis of functional data

Saumard, Mathieu 23 May 2013 (has links)
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique. / In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective.
148

Modèles de prédiction pour l'évaluation génomique des bovins laitiers français : application aux races Holstein et Montbéliarde / Prediction models for the genomic evaluation of French dairy cattle : application to the Holstein and Montbéliarde breeds

Colombani, Carine 16 October 2012 (has links)
L'évolution rapide des techniques de séquençage et de génotypage soulèvent de nouveaux défis dans le développement des méthodes de sélection pour les animaux d’élevage. Par comparaison de séquences, il est à présent possible d'identifier des sites polymorphes dans chaque espèce afin de baliser le génome par des marqueurs moléculaires appelés SNP (Single Nucleotide Polymorphism). Les méthodes de sélection des animaux à partir de cette information moléculaire nécessitent une représentation complète des effets génétiques. Meuwissen et al. (2001) ont introduit le concept de sélection génomique en proposant de prédire simultanément tous les effets des régions marquées puis de construire un index "génomique" en sommant les effets de chaque région. Le challenge dans l’évaluation génomique est de disposer de la meilleure méthode de prédiction afin d’obtenir des valeurs génétiques précises pour une sélection efficace des animaux candidats. L’objectif général de cette thèse est d'explorer et d’évaluer de nouvelles approches génomiques capables de prédire des dizaines de milliers d'effets génétiques, sur la base des phénotypes de centaines d'individus. Elle s’inscrit dans le cadre du projet ANR AMASGEN dont le but est d’étendre la sélection assistée par marqueurs, utilisée jusqu’à lors chez les bovins laitiers français, et de développer une méthode de prédiction performante. Pour cela, un panel varié de méthodes est exploré en estimant leurs capacités prédictives. Les méthodes de régression PLS (Partial Least Squares) et sparse PLS, ainsi que des approches bayésiennes (LASSO bayésien et BayesCπ) sont comparées à deux méthodes usuelles en amélioration génétique : le BLUP basé sur l’information pedigree et le BLUP génomique basé sur l’information des SNP. Ces méthodologies fournissent des modèles de prédiction efficaces même lorsque le nombre d’observations est très inférieur au nombre de variables. Elles reposent sur la théorie des modèles linéaires mixtes gaussiens ou les méthodes de sélection de variables, en résumant l’information massive des SNP par la construction de nouvelles variables. Les données étudiées dans le cadre de ce travail proviennent de deux races de bovins laitiers français (1 172 taureaux de race Montbéliarde et 3 940 taureaux de race Holstein) génotypés sur environ 40 000 marqueurs SNP polymorphes. Toutes les méthodes génomiques testées ici produisent des évaluations plus précises que la méthode basée sur la seule information pedigree. On observe un léger avantage prédictif des méthodes bayésiennes sur certains caractères mais elles sont cependant trop exigeantes en temps de calcul pour être appliquées en routine dans un schéma de sélection génomique. L’avantage des méthodes de sélection de variables est de pouvoir faire face au nombre toujours plus important de données SNP. De plus, elles sont capables de mettre en évidence des ensembles réduits de marqueurs, identifiés sur la base de leurs effets estimés, c’est-à-dire ayant un impact important sur les caractères étudiés. Il serait donc possible de développer une méthode de prédiction des valeurs génomiques sur la base de QTL détectés par ces approches. / The rapid evolution in sequencing and genotyping raises new challenges in the development of methods of selection for livestock. By sequence comparison, it is now possible to identify polymorphic regions in each species to mark the genome with molecular markers called SNPs (Single Nucleotide Polymorphism). Methods of selection of animals from genomic information require the representation of the molecular genetic effects. Meuwissen et al. (2001) introduced the concept of genomic selection by predicting simultaneously all the effects of the markers. Then a genomic index is built summing the effects of each region. The challenge in genomic evaluation is to find the best prediction method to obtain accurate genetic values of candidates. The overall objective of this thesis is to explore and evaluate new genomic approaches to predict tens of thousands of genetic effects, based on the phenotypes of hundreds of individuals. It is part of the ANR project AMASGEN whose aim is to extend the marker-assisted selection, used in French dairy cattle, and to develop an accurate method of prediction. A panel of methods is explored by estimating their predictive abilities. The PLS (Partial Least Squares) and sparse PLS regressions and Bayesian approaches (Bayesian LASSO and BayesCπ) are compared with two current methods in genetic improvement: the BLUP based on pedigree information and the genomic BLUP based on SNP markers. These methodologies are effective even when the number of observations is smaller than the number of variables. They are based on the theory of Gaussian linear mixed models or methods of variable selection, summarizing the massive information of SNP by new variables. The datasets come from two French dairy cattle breeds (1172 Montbéliarde bulls and 3940 Holstein bulls) genotyped with 40 000 polymorphic SNPs. All genomic methods give more accurate estimates than the method based on pedigree information only. There is a slight predictive advantage of Bayesian methods on some traits but they are still too demanding in computation time to be applied routinely in a genomic selection scheme. The advantage of variable selection methods is to cope with the increasing number of SNP data. In addition, they are able to extract reduced sets of markers based of their estimated effects, that is to say, with a significant impact on the trait studied. It would be possible to develop a method to predict genomic values on the basis of QTL detected by these approaches.
149

Modélisation de données cliniques de grande dimension : application aux pathologies respiratoires / High-Dimensional Clinical Data Modeling : Application To Respiratory Diseases

Marin, Grégory 26 June 2014 (has links)
Cette thèse est consacrée à l'application et au développement de méthodes biostatistiques originales pour des applications médicales et cliniques concernant plus particulièrement les pathologies respiratoires. Il s'agit ainsi d'un travail de recherche transversale, visant à la modélisation de données hétérogènes, colinéaires et de grande dimension pour des applications cliniques. Un état de l'art traitant du diagnostic de l'asthme et de hyperactivité bronchique a tout d'abord été dressé, avant de proposer une première application statistique, prenant la forme de modèles de régressions multiples. Ce type de modèle étant particulièrement sensible à la dimension et la colinéarité des données, les chapitres suivants proposent plusieurs améliorations, après avoir explicité en détail l'enjeu et les méthodes actuelles d'analyse de données de grande dimension. Un premier modèle de classification hiérarchique non supervisé a été mis au point et appliqué au cas de la quantification du piégeage aérique. Un algorithme de régression Partial Least Square a également été mis en œuvre, prédisant une ou plusieurs variables Y à partir d'un set de variables X hétérogènes et colinéaires, ce qui a permis de mettre en évidence l'impact de l'âge sur les petites voies aériennes, tout en considérant de nombreux autres paramètres. Enfin, un algorithme d'analyse fractale a été créé, en vue de quantifier en une seule valeur la complexité spatiale et géométrique d'images de scanners thoraciques, cela constituant un innovant outil d'aide au diagnostic radiologique. / This thesis outlines new statistic methods devoted to clinical and medical applications, dealing more precisely with respiratory diseases. Our goal was to model and analyze high-dimensional clinical data, often heterogeneous, and collinear. A clinical state of the art of asthma diagnosis and bronchial hyperreactivity was first stated, before proposing a first statistical application, which took the shape of multiple regression models. This type of models is particularly tricky when treating high-dimensional collinear data, which is why the other chapters are an enhancement of this first model. Firstly, a non-supervised hierarchical classification was carried out and applied to air trapping quantification. A Partial Least Square regression model was also executed, allowing prediction of one or more variables from a set of X variables, which allowed us to highlight the impact of age on small airway impairment. Finally, a fractal analysis was performed, in order to quantify the geometrical and spatial complexity of a CT scan image into a single value. This kind a prospective methodology, where the statistics are directly involved in the clinical work, represents a brand new tool which can help medical diagnosis.
150

Modélisation d’un parc de machines pour la surveillance. : Application aux composants en centrale nucléaire / Modelling a fleet of machines for their diagnosis. : Application to nuclear power plants components

Ankoud, Farah 12 December 2011 (has links)
Cette thèse porte sur la conception de méthodes de surveillance de système à partir de données collectées sur des composants de conceptions identiques exploités par plusieurs processus. Nous nous sommes intéressés aux approches de diagnostic sans modèle a priori et plus particulièrement à l'élaboration des modèles de bon fonctionnement des composants à partir des données collectées sur le parc. Nous avons ainsi abordé ce problème comme un problème d'apprentissage multi-tâches qui consiste à élaborer conjointement les modèles de chaque composant, l'hypothèse sous-jacente étant que ces modèles partagent des parties communes. Dans le deuxième chapitre, on considère, dans un premier temps, des modèles linéaires de type multi-entrées/mono-sortie, ayant des structures a priori connues. Dans une première approche, après une phase d'analyse des modèles obtenus par régression linéaire pour les machines prises indépendamment les unes des autres, on identifie leurs parties communes, puis on procède à une nouvelle estimation des coefficients des modèles pour tenir compte des parties communes. Dans une seconde approche, on identifie simultanément les coefficients des modèles ainsi que leurs parties communes. Dans un deuxième temps, on cherche à obtenir directement les relations de redondance existant entre les variables mesurées par l'ACP. On s'affranchit alors des hypothèses sur la connaissance des structures des modèles et on prend en compte la présence d'erreurs sur l'ensemble des variables. Dans un troisième chapitre, une étude de la discernabilité des modèles est réalisée. Il s'agit de déterminer les domaines de variation des variables d'entrée garantissant la discernabilité des sorties des modèles. Ce problème d'inversion ensembliste est résolu soit en utilisant des pavés circonscrits aux différents domaines soit une approximation par pavage de ces domaines. Finalement, une application des approches proposées est réalisée sur des simulateurs d'échangeurs thermiques / This thesis deals with the conception of diagnosis systems using the data collected on identical machines working under different conditions. We are interested in the fault diagnosis method without a priori model and in modelling a fleet of machines using the data collected on all the machines. Hence, the problem can be formulated as a multi-task learning problem where models of the different machines are constructed simultaneously. These models are supposed to share some common parts. In the second chapter, we first consider linear models of type multiple-input/single-output. A first approach consists in analyzing the linear regression models generated using the data of each machine independently from the others in order to identify their common parts. Using this knowledge, new models for the machines are generated. The second approach consists in identifying simultaneously the coefficients of the models and their common parts. Secondly, the redundancy models are searched for using PCA. This way, no hypothesis on the knowledge of the structures of models describing the normal behavior of each machine is needed. In addition, this method allows to take into consideration the errors existing on all the variables since it does not differentiate between input or output variables. In the third chapter, a study on the discernibility of the outputs of the models is realized. The problem consists in identifying the range of variation of the input variables leading to discernible outputs of the models. This problem is solved using either the confined pavements to the different domains or a pavement method. Finally, the multi-task modelling approaches are applied on simulators of heat exchangers

Page generated in 0.0664 seconds