• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 246
  • 139
  • 92
  • 23
  • 2
  • 1
  • 1
  • Tagged with
  • 502
  • 151
  • 92
  • 54
  • 53
  • 51
  • 51
  • 50
  • 49
  • 45
  • 45
  • 43
  • 38
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Etude des schémas de discrétisation temporelle "explicite horizontal, implicite vertical" dans une dynamique non-hydrostatique pleinement compressible en coordonnée masse / Study of "horizontally explicit, vertically implicit" time scheme for a fully compressible non-hydrostatic dynamic in mass-based coordinate

Colavolpe, Charles 05 December 2016 (has links)
La résolution numérique du système d'équations pleinement compressibles en vue de son utilisation pour des applications en Prévision Numérique du Temps (PNT) soulève de nombreuses questions. L'une d'elles porte sur le choix des schémas de discrétisation temporelle à mettre en oeuvre afin de résoudre ce système de la manière la plus efficace possible, pour permettre la continuelle amélioration qualitative des prévisions. Jusqu'alors, les schémas de discrétisation temporelle basés sur des techniques semi-implicites (SI) étaient les plus couramment employés PNT, compte tenu de leur robustesse et de leur grande propriété de stabilité. Mais avec l'émergence des machines massivement parallèles à mémoire distribuée, l'efficacité de ces techniques est actuellement remise en question, car leur confortable plage de stabilité est obtenue au prix de l'inversion d'un problème elliptique tri-dimensionnel très gourmand en communications. Ce travail thèse vise à explorer d'autres méthodes de discrétisation temporelle, en remplacemant des méthodes SI, s'appuyant sur des approches de type Horizontalement Explicite et Verticalement Implicite (HEVI). D'une part, ces approches s'affranchissent de la contrainte numérique imposée sur le pas de temps par la propagation verticales des ondes rapides supportées par le système, grâce au traitement implicite des processus verticaux. D'autre part, elles exploitent le paradigme de programmation voulant que chaque colonne verticale du modèle numérique soit traitée par un unique processeur. Ainsi, le traitement implicite de cette direction n'engendre aucunes communications entre les processeurs. Cependant, bien que ces ap- proches HEVI apparaissent comme une solution attractive, rien ne garanti que leurs efficacités puissent être aussi compétitives que celles des sché- mas SI. Pour ce faire, ces schémas HEVI doivent permettre l'utilisation de pas de temps raisonnables pour une application en PNT. L'objectif de ce travail de thèse est d'élaborer un schéma de discrétisation temporelle HEVI le plus efficace possible pour une utilisation en PNT, c'est à dire, un schéma qui autorise le plus long pas de temps possible. Dans cette optique, deux voies ont été explorées : la première, issue des méthodes à pas de temps fractionné, a permis de revisiter et d'améliorer un schéma de discrétisation temporelle déjà proposé mais dont l'examen n'a jamais été approfondi dans la littérature ; il s'agit du schéma d'avance temporelle saute-moutons trapézo\"idal. Il a été mis en évidence que l'ajout d'un simple filtre temporel d'usage commun en PNT, améliore grandement la stabilité de ce schéma, lui permettant ainsi à moindre coût de rivaliser en terme de stabilité avec le schéma Runge-Kutta explicite d'ordre 3. La seconde voie, plus récente, c'est avérée la plus prometteuse. Elle repose sur l'utilisation des méthodes Runge-Kutta Implicite-Explicite (RK-IMEX) HEVI. Au cours l'étude, il a été tout d'abord mis en évidence certains problèmes de stabi- lité des schémas initialement suggérés dans la littérature en présence des processus d'advection. Puis, une nouvelle classe de schéma RK-IMEX HEVI s'appuyant sur un traitement temporel spécifique des termes d'ajustement horizontaux a été proposé / The use non-hydrostatic fully compressible modelling system in the perspective of Numerical Weather Prediction (NWP) raises many challenging questions, among which the choice time discretization scheme. It is commonly acknowledge that the ideal time marching algorithms to integrate the fully compressible system should both overcome the stability constraint imposed on time-step by the fast propagating waves supported by the system, and be scalable enough for efficiently computing on massively parallel computer machine. The assumed poor scalability property of Semi-implicit (SI) time schemes, currently favoured in NWP, is quite a drawback as they require global communications to solve a full three-dimensional elliptic problem. Because it is considered as the best compromise between stability, accuracy and scalability the properties of various classes of Horizontally Explicit Vertically Implicit (HEVI) schemes have been deeply explore in this work in a view of solving the fully system in mass-based coordinate. This class of time discretization approach eliminates all the problems linked to the implicit treatment of horizontal high-frequency forcings by coupling multi-step or multi-stage explicit methods for the horizontal propagation of fast waves to an implicit scheme for the treatment of vertically prop- agating elastic disturbances. The limitation in time-steps compared to SI schemes would be compensated by a much more economical algorithm per time-step. However, it is not firmly established that the efficiency of such a HEVI schemes could compete with one of the semi-implicit schemes. The main objective of this Phd thesis work is to elaborate an efficient HEVI time scheme allowing usable time-step for NWP applications. For this purpose, the so-called explicit time-splitting technique and the recently suggested Runge-Kutta IMEX (RK-IMEX) schemes have been explored un- der HEVI approach. Firstly, the superiority in term of stability of the RK-IMEX methods in respect with the time-splitting approach has been con- firmed. However, in presence of advection processes some unstable numerical behaviour of these schemes has been pointed out. To circumvent this problem a new class of RK-IMEX HEVI schemes has been proposed. This new class of HEVI time schemes reveals to be very attractive since they provide both good stability and accuracy properties. Secondly, in a side aspect of the HEVI approach, the stability impact of the temporal treatment of the terrain following coordinate non-linear metric terms has been demonstrated. Numerical analyses on simplified framework indicate that there might be a benefit to deal with these specific terms in the implicit part of the HEVI schemes. All the theoretical studies have been confirmed by nu- merical testing through the use of a Cartesian vertical plane fully compressible model cast in a mass-based coordinate.
12

Optimisation de la chaîne logistique dans l'industrie de process. Méthodes et application à l'industrie du verre plat

Miegeville, Nicolas 21 September 2005 (has links) (PDF)
L'importance croissante que le client accorde à la manière dont une entreprise<br />satisfait sa demande bouleverse les fondements des organisations anciennement pensées sous l'angle de la production. Phénomène tout à fait perceptible dans un grand<br />groupe industriel comme Saint-Gobain, à forte culture ingénieur, cette prise de<br />conscience donne un nouvel élan aux métiers transversaux focalisés à la fois sur<br />l'optimisation du schéma industriel et de la chaîne logistique. Cette thèse est une<br />illustration de cette évolution : l'intérêt porté aux problèmes d'optimisation des systèmes industriels et logistiques est relativement récent à Saint-Gobain Recherche.<br />Nous nous sommes intéressés dans nos travaux à différents problèmes industriels<br />complémentaires rencontrés chez Saint-Gobain Glass, leader de la production de<br />verre plat en Europe. Nous avons apporté des solutions mettant en lumière l'interdépendance de différentes décisions à des problèmes industriels complexes, avec un<br />souci constant de produire des outils d'aide à la décision utiles et appréciés.<br />Après un avant-propos rappelant le sens de notre démarche, nous découvrirons<br />dans le chapitre 1 le contexte industriel qui a motivé notre recherche. Nous présentons<br />les métiers du groupe - produire, transformer et distribuer du verre plat - et les<br />différents niveaux de décision que nous avons décidé d'aborder. Les chapitres suivants<br />présentent les problèmes d'optimisation que nous avons identifiés et qui nous sont<br />apparus comme clés.<br />Nous abordons dans le chapitre 2 un modèle permettant de déterminer les dimensions<br />des produits standards. L'intégration verticale du groupe permet l'étude<br />du meilleur compromis entre les chutes de verre tout au long de la chaîne logistique<br />et le nombre de références à gérer. La suite de la thèse tend à aboutir à une modélisation complète du schéma industriel et logistique et fait l'objet du chapitre 6. Pour cela, nous traitons les questions de localisation d'installations logistiques (chapitre 3) et de modélisation des processus de production : le chapitre 4 présente notre modèle<br />et l'illustre avec la production de verre plat, tandis que le chapitre 5 présente un<br />travail complémentaire permettant de l'appliquer aux lignes de transformation. Finalement, nous intégrons dans le chapitre 6 tous ces travaux dans un modèle linéaire<br />en nombres entiers.<br />Fruit d'une véritable collaboration entre chercheurs et industriels, ce travail présente<br />un modèle générique déterministe d'optimisation de la chaîne logistique appliqué avec succès à l'industrie du verre. De nombreuses perspectives dignes d'intérêt<br />sont imaginables, autant théoriques que pratiques.
13

Analyse et mise en oeuvre des schémas numériques pour la physique des plasmas ionosphériques et de tokamaks / Analysis and implementation of numerical schemes for ionospheric plasma and tokamaks physics

Yang, Chang 28 November 2011 (has links)
Ce travail de thèse porte sur la modélisation et la simulation numérique des plasmas ionosphérique et Tokamak. La première partie de ce travail concerne la modélisation et la simulation numérique des effets de perturbations ionosphériques sur les communications terre-satellite. Le point départ de cette partie est l’analyse asymptotique du modèle de Euler-Maxwell conduisant ainsi au modèle Dynamo, qui se traduit en un couplage en 3D entre une équation elliptique pour le potentiel électrique et une équation de conservation de masse pour la densité du plasma. Du fait de la forte anisotropie de la matrice de diffusion associée a l’équation elliptique, on a developpé un schéma numérique préservant l’asymptotique permettant ainsi le bon conditionnement du systeme linéaire. La simulation de l’équation de conservation de masse est faite à l’aide de schémas de lois de conservation d’ordre elevé. La validation de ce modèle Dynamo s’obtient par une étude comparative avec le modèle Striation en 2D. Dans la deuxième partie, on s’intéresse au plasma Tokamak. On extrait du modele TOKAM3D, une équation de balance d’énergie de type non-linéaire en dimension 2 contenant toutes les difficultés numériques. Les méthodes numériques standard étant très coûteux en temps CPU, on developpe un schéma implicite-explicite prouvé efficace et stable pour ce type de problème. Enfin, ce schéma est combiné à une méthode de splitting dimensionnelle pour la discrétisation et des expériences numériques sont alors presentées. / This thesis focuses on modeling and numerical simulation of ionospheric and Tokamak plasmas.The first part of this work concerns the modeling and simulation of ionospheric perturbations effects for earth-satellite communications. The starting point of this part is an asymptotic analysis of Euler-Maxwell model leading to Dynamo model, which results into a 3D coupling problem between an elliptic equation for the electric potential and a mass conservation equation for the plasma density. Because of the strong anisotropy of the diffusion matrix associated with the elliptic equation, we developed an asymptotic preserving numerical scheme thus allowing the well conditioned linear system. The simulation of the mass conservation equation is made by using high order conservation laws scheme. The validation of this model Dynamo is obtained by a comparison with the 2D Striation model. In the second part, we are interested in tokamak plasma. We extract from TOKAM3D model, a 2D nonlinear energy balance equation containing all the numerical difficulties. Standard numerical methods are very CPU consuming, thus we develop an implicit-explicit scheme shown efficient and stable for this type of problem. Finally, this scheme is combined with dimensional splitting method for the discretization and numerical experiments are then presented.
14

Tělo a jeho manifestace / Body and its manifestation

Havlanová, Michaela January 2011 (has links)
Resumé (En) Key words: Body, soma, sarx, pexis, horizon, aesthesis, corporate scheme, body art, body modifications. This thesis deals with body and its manifestation. The body is conceived as philosophic, anthropologic and psychic phenomenon. Philosophic part determinates body as soma, sarx and pexis. The phenomenon as corporate scheme, horizon, motion and aesthesis are used for better understanding as well. Next part deals with body as anthropologic phenomenon. Body modifications, suspensions and their history are showed here. The research makes clear minds and reasons of extremely modificated persons. The last part is psychological. Problems related with wrong corporate scheme are described, as well as evolution of body's perception.
15

Schematron Schema Inference / Schematron Schema Inference

Kozák, Michal January 2012 (has links)
XML is a popular language for data exchange. However, many XML documents do not have their schema or their schema is outdated. This thesis continues on the field of automatic schema inferring for set of XML documents and focuses on Schematron schema inferring. Schematron is a language that validates XML documents with rules, it does not compare the document against a grammar like DTD, and XML Schema does. Because the field of Schematron schema generation is not so much explored, this thesis analyzes basic problems, suggests several approaches and describes their advantages and disadvantages.
16

Développement d’un outil de caractérisation millimétrique de bruit dans la bande de fréquence 110 – 320 GigaHertz / Development of noise characterization setup in 110 – 320 GigaHertz frequency range

Poulain, Laurent 13 November 2012 (has links)
Aujourd’hui, l’amélioration des fréquences de coupure des transistors sur silicium en technologie CMOS et BiCMOS permet la conception d’applications au-delà de 110 GHz. Des recherches antérieures dans le cadre du laboratoire commun entre STMicroelectronics et l’IEMN ont permis le développement de méthodologies et d’outils de caractérisation en régime petit signal jusque 325 GHz et en bruit jusque 110 GHz. L’objectif de cette thèse est la conception d’un outil de caractérisation en bruit au-delà de 110 GHz pour permettre l’extraction des quatre paramètres de bruit des transistors. Après une présentation des difficultés liées à la caractérisation millimétrique sur silicium, la deuxième première partie de ce travail se consacre au développement d’un banc de mesure de bruit dans la bande 130 – 170 GHz. Son optimisation a permis d’obtenir un facteur de bruit du récepteur inférieur à 7 dB sur toute la bande de fréquences. La conception de tuners intégrés sur silicium en technologie BiCMOS9MW est ensuite détaillée. Leur réalisation a permis l’extraction des quatre paramètres de bruit d’un transistor bipolaire en technologie BiCMOS9MW dans la bande 130 – 170 GHz. La dernière partie de ce travail présente la mesure et l’extraction des modèles petit signal et de bruit jusque 110 GHz des transistors MOSFET et TBH avancés de STMicroelectronics permettant l’établissement d’une base de données pour des caractérisations au-delà de 110 GHz. Enfin, une ouverture vers un système de mesure de bruit totalement intégré sur silicium est évoquée pouvant permettre des caractérisations en bruit au-delà de 170 GHz. / Today, cut-off frequencies improvement of silicon transistors in CMOS and BiCMOS technologies allow the design of applications over 110 GHz. Prior research in common lab between STMicroelectronics and IEMN allowed methodologies and characterization studies in small signal up to 325 GHz and noise up to 110 GHz. This thesis objective is the development of noise characterization setup over 110 GHz to allow silicon transistor four noise parameters extraction. After a presentation of characterization difficulties on silicon, the second part of this work is devoted to noise setup development in 130 – 170 GHz frequency range. The optimization of the setup allowed us to obtain a receiver noise factor below 7 dB. Silicon in-situ tuner design is then detailed. Achievement of these tuners gave us the possibility to extract the four noise parameters of a bipolar transistor in BiCMOS9MW technology in 130 – 170 GHz frequency range. The last part of this work presents small signal and noise model extraction up to 110 GHz of STMicroelectronics advanced MOSFET and HBT transistors to allow database building which will be useful to permit noise characterizations of these transistors over 110 GHz. Finally, the possibility to develop complete on wafer noise system on silicon is mentioned to provide noise characterization over 170 GHz.
17

L'INFLUENCE DU TROUBLE BIPOLAIRE SUR LES FACTEURS COGNITIFS ET AFFECTIFS CHEZ LE PATIENT ADULTE LIBANAIS

Kahalé, Nathalie 19 June 2009 (has links) (PDF)
L'objectif est d'étudier l'influence du trouble bipolaire sur la personnalité du patient bipolaire adulte libanais au niveau cognitif et affectif. <br /><br />En effet, nous nous sommes interrogées quant à l'influence du trouble bipolaire sur les cognitions et l'affectivité du patient et leur variation éventuelle selon le type I (à prédominance maniaque) ou II du trouble (à prédominance dépressive). <br /><br />Pour cette raison, nous avons recueilli des données relatives à ces deux facteurs (cognitifs et affectifs) auprès de 40 adultes bipolaires (entre 20 et 40 ans) dont 21 sont des bipolaires de type I et 19 des bipolaires de type II, grâce aux quatre questionnaires suivants :<br /><br />- l'échelle du « lieu de contrôle tridimensionnel » de Hannah Levenson, mesurant le style cognitif <br />- le questionnaire des pensées automatiques de Hollon et Kendall : « Automatic Thoughts Questionnaire » (ATQ), mesurant les cognitions <br />- le questionnaire abrégé des schémas de Young : Young schema questionnaire-short form (YSQ-S1), mesurant la vie affective<br />- le questionnaire des attitudes parentales de Young : Young parenting inventory, mesurant la vie affective.<br /><br />En ce qui concerne le lieu de contrôle, les résultats montrent que les bipolaires de type II (à prédominance dépressive) ont un score significativement plus élevé à l'échelle externe « autres » que les bipolaires de type I (à prédominance maniaque). Par contre, ils se ressemblent au niveau de l'échelle interne et au niveau de l'échelle externe « chance ».<br />Par rapport aux pensées automatiques, les bipolaires de type I ont un score plus élevé de façon non significative au questionnaire des pensées automatiques que les bipolaires de type II. <br /><br />Concernant les schémas précoces d'inadaptation, les résultats nous montrent l'absence de significativité entre les moyennes des bipolaires de type I et II, sauf pour un seul schéma : le schéma « tout m'est dû » qui est plus élevé chez les bipolaires de type II. <br /><br />Les résultats sur les schémas des parents des bipolaires (attitudes parentales) nous montrent que les schémas élevés des parents des bipolaires de type I sont plus nombreux que ceux des parents des bipolaires de type II. Donc les parents des bipolaires de type I ont des attitudes plus négatives en bas âge que ceux des bipolaires de type II. <br /><br />En conclusion nous pouvons dire que le trouble bipolaire affecte la personnalité des patients adultes libanais au niveau cognitif et affectif différemment selon le type I ou II du trouble.
18

Une Méthode Numérique Probabiliste pour les Équations aux Dérivées Partielles Paraboliques et complètement non-linéaires

Fahim, Arash 06 April 2010 (has links) (PDF)
Cette thèse est divisée en deux parties. La première partie introduit une méthode probabiliste numérique pour les EDPs parabolique et complètement non-linéaire, puis on considère ses propriétés asymptotiques (convergence et taux de convergence) et aussi l'analyse de l'erreur due à l'approximation de l'espérance conditionnelle par une méthode de type Monte Carlo. Les EDPs complètement non- linaires apparaissent dans plusieurs applications en ingénierie, économie et finance. Citons par exemple le problème de propagation de front par courbure moyenne, ou le problème de sélection de portefeuille. Une classe importante d'EDP complètement non-linéaire est constituée par les équations de HJB découlant du contrôle optimal stochastique. Dans la plupart des cas, il n'existe pas de solution dans le sens classique. Par conséquent, la notion de solution de viscosité est utilisé pour les EDP complètement non-linéaires. En raison de manque de de solution explicite dans de nombreuses applications, les schémas d'approximation sont devenus très importants. Pour montrer la convergence, la méthode utilisée dans cette thèse a été introduite par Barles et Souganidis. Leurs travaux fournissent le résultat de convergence vers des solutions de viscosité pour une solution approchée obtenue à partir cohérente, monotone et stable régime. An d'obtenir le taux de convergence, nous avons supposé que le EDP a non-linéarité concave de type HJB. En d'autres termes, la non-linéarité est une borne inférieure des opérateurs linéaires. La thèse a utilisé la méthode de Krylov des coefficients secoué et d'approximation par un système d'équations HJB couplées pour obtenir des bornes sur les taux de convergence. La mise en œuvre du schéma requiert d'introduire une approximation des espérances conditionnelles. Pour une classe d'estimateurs, nous avons obtenu une borne inférieure sur le nombre de chemins échantillon qui préserve la vitesse de convergence obtenue avant. La généralisation de la méthode à des équations intégro-diférentielles est simple et on peut utiliser les mÃa mes arguments que dans le cas local pour obtenir la convergence et le taux de convergence. Notons cependant que le cas non local introduit la difficulté supplémentaire d'approximation des termes non locaux. La première partie sera terminée est illustrée par quelques expériences numériques. La méthode est utilisée pour résoudre le problème géométrique des taux de courbure moyenne, le problème de la sélection sur un portefeuille d'actifs avec volatilité stochastique dans le modèle de Heston, et le problème de sélection de portefeuille de deux actifs à la fois avec une volatilité stochastique, on satisfait modèle de Heston et l'autre CEV modèle. La deuxième partie de la thèse traite de la politique de production optimale dans le marché des allocations des permis d'émission de carbone. Le marché des permis d'émissions de carbone est une approche de marché pour mettre en œuvre le protocole de Kyoto. Nous avons calculé la production optimale dans 4 cas: quand il n'y a pas un tel marché, quand il y a un tel marché, mais sans grand producteur de carbone, quand il y a un gros producteur qui n'est pas teneur de marché, et quand il existe un marché avec un grande producteur. Nous avons montré que dans les premiers, la production optimale est toujours diminuée. Cependant, dans le dernier cas, nous avons montré que le gros producteur peut bénéficier du marché en changeant la prime de risque de l'allocation de carbone en raison de sa production d'appoint. Cette partie est illustrée par quelques expériences numériques qui montre des cas que le grand producteur peut bénéficier d'une production d'appoint.
19

Le concept de soi : voie d’épanouissement ou d’emprisonnement du capital social?

Richer, Céline 03 May 2012 (has links)
La présente étude vise à mieux comprendre quelle dynamique corrélationnelle s’inscrit entre le concept de soi d’un individu et son capital social. La théorie de la vérification de soi (Swann, 1987) sous-tend que les individus ont tendance à s’entourer de gens qui confirment leur vision d’eux même, dans le but de pouvoir prédire et contrôler leur environnement. On peut alors se demander si la personne dont le soi est tapissé de représentations négatives a précisément la capacité de se construire un réseau social qui constituera véritablement un « capital » relationnel pour elle. Un design méthodologique corrélationnel a été utilisé afin d’évaluer les liens de concomitance entre les indicateurs des construits « concept de soi » et « capital social. » Les résultats d’analyses statistiques corrélationnelles entre les indicateurs confirment, en grande partie, l’hypothèse de départ, à savoir que plus une personne nourrit un concept de soi sain, plus elle génère un capital social riche. Les implications pratiques et théoriques sont discutées.
20

Analyse statistique de plans par regroupement et applications à la génomique et à la biostatique

Auger, Pierre January 2010 (has links) (PDF)
Dans ce mémoire, nous présentons quelques facettes de l'étude statistique des plans par regroupement, qui nous ont paru particulièrement représentatives. Comme on rencontre les méthodologies faisant appel aux plans par regroupement surtout en génétique, nommément en génétique expérimentale, où du reste ces méthodologies s'y révèlent remarquablement adéquates, nous présentons d'abord en le chapitre l, en guise de préalable à la suite du mémoire, un certain nombre d'éléments de génétique et, en particulier, nous y présentons la notion de sonde, qui est en quelque sorte une « constante », puisque cette notion est sous-jacente à toutes les méthodologies que nous présentons ici, au sens où, plus précisément, cette notion est centrale dans ce qui motive toutes ces méthodologies. Dans le chapitre 2, nous présentons le concept de complexe simplicial. Ce concept a ceci de remarquable qu'il donne lieu à des plans par regroupement grâce auxquels on peut déterminer tous les éléments positifs à partir de la donnée des groupes positifs. Nous introduisons ensuite dans le chapitre 3 une nouvelle espèce de structures, à savoir l'espèce des plans ordonnés. Nous en déduisons ensuite une formule pour l'espérance du nombre d'éléments négatifs indéterminés dans le cas des plans par regroupement ordinaires. Nous présentons aussi une méthode, que nous qualifions d'ensembliste, pour la détermination de probabilités toujours dans le cas des plans ordonnés. Nous pensons avoir détecté une faille dans le cours du raisonnement de l'auteur de cette méthode et en proposons une solution de rechange. Dans le chapitre 4, nous présentons une méthode d'estimation de l'espérance d'un certain estimateur du nombre d'éléments positifs, estimateur que nous y définissons, pour une classe particulière de plans par regroupement, à savoir la classe des plans hypercubiques. Nous présentons ensuite différentes facettes de la mise en application de l'estimateur de Monte Carlo de l'espérance de cet estimateur-là. Cette mise en application nous permet finalement dans le chapitre 5 d'obtenir des tables d'estimations de cet estimateur pour différentes valeurs des paramètres de cette classe de plans, et pour différentes valeurs du paramètre de la loi de probabilité associée. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Génomique, Complexe simplicial, Plan par regroupement, Plan ordonné, Plan hypercubique.

Page generated in 0.0299 seconds