• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5992
  • 1675
  • 727
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8347
  • 2697
  • 2693
  • 1642
  • 1361
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 479
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Consolidation pro active de commandes : une première simulation dynamique par modélisation Arena

Deslauriers-Gaboury, Olivier 11 1900 (has links) (PDF)
Avec le pouvoir qu'elles détiennent maintenant sur leur chaîne d'approvisionnement, les grandes entreprises de commerce au détail peuvent contrôler plus librement leurs activités d'approvisionnement. Plusieurs stratégies de livraison peuvent être utilisées pour réduire les coûts liés à l'approvisionnement en marchandises. La gestion des inventaires, l'établissement des quantités à commander, la réduction des stocks et la réduction des différents coûts d'approvisionnement sont des éléments essentiels influençant le choix de la méthode de livraison utilisée par une entreprise. Une des méthodes de livraison utilisée par l'industrie du commerce au détail, la consolidation de commande, consiste à regrouper plusieurs commandes pour former des lots en fonction des conteneurs disponibles. Ces lots génèreront par la suite des économies sur le coût des conteneurs de par leur taille plus grande. Une approche peu traitée dans la littérature scientifique propose d'établir les groupes de commandes à l'avance afin de pouvoir calculer les besoins en conteneurs plus rapidement. On appelle cette approche la consolidation proactive de commande ou POC "Proactive Orders Consolidation". Ce mémoire propose un modèle de simulation pouvant traduire dynamiquement un processus d'approvisionnement utilisant la consolidation proactive. Le modèle se base sur une grande entreprise du commerce au détail. Il utilise un outil d'optimisation de « bin packing » qui permet d'établir le meilleur plan de consolidation. Le contexte dans lequel ce type de processus s'applique comporte une part d'incertitude affectant plusieurs paramètres. La méthode de livraison avec consolidation proactive est comparée avec les méthodes de livraison avec consolidation opérationnelle et par transport dédié. On présente également les avantages de contrôler le processus d'approvisionnement en fonction de la consolidation proactive. On démontre que la consolidation proactive présente un avantage réel sur les coûts globaux d'approvisionnement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : consolidation proactive de commandes, modélisation, simulation, chaîne d'approvisionnement, bin packing, commerce au détail
422

Structure tridimensionnelle du manteau supérieur sous l'est du Bouclier canadien et le nord des Appalaches par la tomographie des ondes P

Villemaire, Mélanie 08 1900 (has links) (PDF)
Certaines études séismiques du manteau supérieur, menées sous le Bouclier Canadien, indiquent la présence d'anomalies de faible vitesse à l'intérieur de la lithosphère de la région. Le manque de couverture vers l'est et le sud-ouest empêchait auparavant la conscription de la géométrie 3D de ces anomalies. L'ajout de plusieurs stations au Québec et aux États-Unis permet une nouvelle analyse des structures de vitesse séismique par l'utilisation de la tomographie des ondes P. Ce nouveau réseau couvre un territoire d'environ 1750 par 1550 kilomètres répartis sur trois provinces géologiques soit, le Supérieur, le Grenville et les Appalaches. De cette manière, il a été possible de mieux comprendre la complexité mantellique de l'est de l'Amérique du Nord. Les temps d'arrivée relatifs des ondes P furent calculés par la méthode de corrélation croisée à canaux multiples de VanDecar et Crosson (1990). Les structures de vitesse séismique furent ensuite déterminées à partir d'une inversion tomographique des temps d'arrivée résiduels relatifs selon la méthode de VanDecar (1991). L'analyse du modèle résultant montre la présence de caractéristiques lithosphériques semblables entre les provinces du Supérieur et de Grenville, toutes deux d'âge précambrien. Elle montre également une lithosphère beaucoup plus mince sous la Province des Appalaches, d'âge paléozoïque. De plus, l'asthénosphère située sous cette dernière a une vitesse moyenne beaucoup plus faible que celle située sous la lithosphère précambrienne. Cela est peut-être dû à la déshydratation d'une plaque en subduction. La délimitation d'un corridor de faible vitesse positionne assez bien l'emplacement des provinces ignées associées au passage du point chaud Great Meteor. Il est également possible d'observer des traces de plaques en subduction à deux endroits. La première plaque se trouve dans la lithosphère sous la Province d'Opatica et semble reliée au processus d'accrétion de la Province du Supérieur. La seconde, quant à elle, se trouve dans le manteau inférieur et pourrait constituer la plaque Farallon, en subduction à partir de la marge ouest du continent. Enfin, cette étude a permis d'affirmer l'importance de deux processus ayant contribué au remodelage du manteau sous l'est de l'Amérique du Nord soit, la subduction et l'interaction de la lithosphère continentale avec un point chaud. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Tomographie, séismologie, modélisation, manteau, Amérique du Nord
423

Métadonnées et processus pour l'archivage de données médiatiques

Amar, Mama 03 1900 (has links) (PDF)
De nos jours, les données multimédia sont de plus en plus utilisées dans de nombreux secteurs de l'informatique. Cela a provoqué l'expansion de grandes quantités de données multimédia. Ainsi, vu le volume de données et le manque de structure d'OM, il devient de plus en plus difficile de les organiser et de les stocker. En effet, l'exploitation de ressources multimédia nécessite des méthodes et des outils informatiques efficaces pour faciliter leur accès, leur utilisation, leur organisation et leur partage. Les métadonnées multimédia peuvent jouer un rôle essentiel à l'élaboration de ces outils. En effet, les métadonnées peuvent rendre les objets multimédia plus explicites et plus faciles à manipuler par les applications informatiques. Ainsi, un bon nombre d'universitaires et de professionnels s'investissent dans l'élaboration de standards et d'outils pour la gestion et l'archivage d'objets multimédia. Cependant, vu la diversité des standards, il existe souvent une problématique d’interopérabilité entre les standards. De plus, les standards sont définis en général pour des domaines spécifiques. Dans ce mémoire, nous définissons une approche basée sur les métadonnées et les processus pour une gestion optimale et l'archivage des objets multimédia. Aussi, nous définissons un prototype basé sur cette approche. Les résultats de notre expérimentation ont montré l'importance d'un processus pour la gestion d'OM et de métadonnées pour faciliter la recherche, l'exploitation et l'archivage d'OM. Nos résultats ont aussi montré la flexibilité du modèle de données proposé. Ce dernier est extensible et est adaptable au contexte d'utilisation. À chaque étape du processus de gestion d'un OM, les résultats font ressortir l'importance des métadonnées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : MultiMedia, Métadonnées, Annotations, Processus, Archivage, Modèle de données
424

NetSim : un logiciel de modélisation et de simulation de réseaux d'information

Lord, Mélanie 04 1900 (has links) (PDF)
Les réseaux électroniques basés sur Internet ont beaucoup accéléré la circulation de l'information dans notre société moderne, mais on commence à voir que les échanges d'information s'effectuent d'abord dans le cadre de réseaux sociaux. Le Web comporte également une structure en réseau, mais celle-ci est assez particulière. Ces différents types de réseaux d'information montrent à la fois des caractéristiques communes et des spécificités dont il convient de tenir compte. Pour des raisons à la fois techniques, sociales et économiques, il est donc utile de chercher à modéliser les réseaux par lesquels circulent information et connaissances. En nous inspirant des acquis importants en sociologie structurale et en analyse mathématique de réseaux, nous avons développé une approche de modélisation des réseaux par simulation. Nous avons tout d'abord développé un langage de modélisation qui se veut le plus flexible possible tout en demeurant simple et abordable pour des utilisateurs variés. Pour ce faire, nous nous sommes inspirés de modèles existants de la littérature et avons tenté d'en abstraire les concepts essentiels que devrait offrir un tel langage. Ensuite, nous avons réalisé NetSim, une plate-forme paramétrable de génération de réseaux capable d'interpréter ce langage et permettant de tester diverses hypothèses sur la structure des réseaux que l'on peut observer empiriquement. Cet outil offre aussi des fonctionnalités de visualisation, sous forme de graphe, de l'évolution du réseau dans le temps. Finalement, nous avons obtenu des résultats plutôt convaincants quant à l'utilisation de notre logiciel pour modéliser et simuler divers types de modèles de l'évolution temporelle de la structure des réseaux. Les phénomènes observés par simulation s'apparentent effectivement à certains faits observés dans la réalité. Ce logiciel pourra servir d'outil de recherche, d'expérimentation, de visualisation et de formation dans un domaine en plein développement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Réseaux d'information, réseaux sociaux, modélisation, simulation.
425

Analyse des ressources mises à contribution par enseignant et chercheur dans l'élaboration de scénarios d'enseignement en dénombrement visant le développement de la modélisation en secondaire I

Barry, Souleymane January 2009 (has links) (PDF)
La combinatoire élémentaire ou le dénombrement évoque pour beaucoup d'élèves de nombreuses expériences négatives, lorsqu'elle est un objet explicite d'enseignement, l'accent étant souvent mis dans cet enseignement sur le recours à des formules de dénombrement que les élèves ne peuvent rattacher à des modèles de situations (Grenier et Payan, 1998). Dans cette recherche nous sommes intéressé à explorer des voies et moyens permettant d'associer des expériences plus positives à la résolution de problèmes combinatoires, et ce dès les premières années du secondaire. Un tel pari apparaît d'autant plus pertinent que plusieurs études soulignent d'une part non seulement des caractéristiques intéressantes des problèmes combinatoires, soit le fait qu'ils n'exigent presque aucun prérequis notionnel de la part des élèves (Kapur, 1970) et qu'ils sont très peu mathématisés (Grenier et Payan, 1998). Elles soulignent également les accomplissements des élèves qui sont capables, lorsque les situations qu'on leur propose sont bien choisies, de développer des heuristiques puissantes, d'inventer des méthodes de justification ou de validation (Maher, Martino et Alston, 1993; Powell et Maher, 2002). Les problèmes combinatoires apparaissent ainsi intéressants à travailler à différents niveaux d'enseignement et se prêtent au développement de plusieurs processus mathématiques tels la mathématisation, la preuve, le raisonnement inductif (Kapur, 1970; Dubois, 1984; Batanero, Godino et Navarro-Pelayo, 1994; Sriraman et English, 2004). C'est à l'un de ces processus, la modélisation que nous nous sommes plus particulièrement attardé, rejoignant en cela d'autres chercheurs comme Grenier et Payan (1998), mais aussi le nouveau programme de mathématiques du premier cycle du secondaire de l'école québécoise (MELS, 2003) dans lequel la modélisation est associée à la compétence à résoudre des situations-problèmes. Dans la perspective théorique particulière que nous retenons sur la modélisation, celle d'une « modélisation émergente » (Gravemeijer, 2007), l'accent est mis sur l'activité informelle des élèves à qui il faut donner l'opportunité de créer des « modèles spontanés » et par la suite de les revisiter, les raffiner et au besoin de les généraliser (Gravemeijer, 1999). L'élaboration d'une approche d'enseignement mettant l'accent sur l'exploitation de problèmes de dénombrement et le développement du processus de modélisation exige toutefois que le chercheur se donne également une perspective particulière pour aborder la conceptualisation de ces scénarios d'enseignement. Plusieurs recherches ont contribué à développer des situations et séquences sur l'exploration de la combinatoire. Dans ce cas, les séquences ont pour l'essentiel été élaborées par les chercheurs, à partir d'analyses didactiques préalables, et ce, pour les apprentissages potentiels qu'elles favorisent chez les élèves (Glaymann et Varga, 1975; Fischbein et Gazit, 1988; Batanero, Godino et Navarro-Pelayo, 1994). Bien sûr, dans le cas de ces différents travaux portant sur la combinatoire et son exploitation, des expérimentations ont été réalisées en classe auprès d'élèves, et des enseignants ont souvent été impliqués dans l'implantation de ces situations. Toutefois, le rôle qu'y jouent ces enseignants demeure limité à ces expérimentations. Leurs visions quant à la manière dont un tel sujet peut se développer et fonctionner en pratique, leurs connaissances, leur savoir d'expérience n'est pas vraiment pris en compte dans la conceptualisation des situations élaborées, qui demeurent donc ici sous l'entière responsabilité des chercheurs. La perspective adoptée par les chercheurs dans ce cas, vis-à-vis de l'enseignant, s'inscrit dans le courant plus global de la recherche en didactique des mathématiques au plan international dans les années 1990 (Hoyles, 1992; Ponte, 1994; Jaworski, sous presse). Cette prise en compte de l'enseignant, de la complexité du travail auquel il fait face dans la pratique, des connaissances qu'il construit -en pratique, est en effet un phénomène relativement récent (Jaworski, sous presse). C'est dans cette dernière perspective que se place notre travail. Pour construire des situations fécondes sur le plan des apprentissages des élèves, mais aussi viables dans les pratiques des enseignants, tenant compte des contraintes et de la complexité de leur pratique, il nous apparaît en effet nécessaire de prendre en compte le point de vue des enseignants, leur savoir d'expérience, leurs connaissances dans la construction même de scénarios visant le développement du processus de modélisation. Nous avons cherché à documenter, de l'intérieur d'une démarche conjointe d'élaboration d'un tel scénario, les apports respectifs du chercheur et de l'enseignant sous l'angle: des problèmes de dénombrement élaborés; du processus de modélisation développé par les élèves en lien avec ces problèmes et leur exploitation; de l'enseignement visant le développement de ce processus. Une recherche collaborative a été menée à cette fin, impliquant le chercheur et un enseignant de mathématique au secondaire qui ont eu à élaborer et expérimenter dans deux classes de secondaire 1 d'une école de la région de Montréal deux scénarios, un premier en novembre 2006 et un second en mai 2007. La démarche de recherche a pris la forme de rencontres réflexives d'élaboration des scénarios et de retour sur les scénarios expérimentés (le dialogue initié lors de ces rencontres se poursuivant sous une forme virtuelle). Le matériau engrangé puis analysé est donc constitué principalement des verbatims des rencontres réflexives de construction des scénarios et de retour sur les scénarios (bilans et récits d'expérimentation). Une analyse par théorisation ancrée (Glaser et Strauss, 1967) nous a permis de dégager de multiples ressources mobilisées par l'enseignant et le chercheur, nous édifiant ainsi sur leur éclairage respectif sur : les problèmes de dénombrement en jeu, le processus de modélisation par les élèves et l'enseignement visant le développement de ce processus. Ces ressources sont de deux sortes: des ressources interprétatives, c'est-à-dire permettant de donner un sens, de proposer une certaine lecture des aspects abordés dans ce travail conjoint d'élaboration de scénarios, et des ressources d'action, c'est-à-dire des ressources prenant la forme de suggestions de manières de faire, de propositions d'aménagement ou d'animation. Ces ressources, interprétatives et d'action, puisent aux cadres de référence du chercheur et de l'enseignant, mais elles montrent une certaine sensibilité théorique et une capacité d'interprétation. Selon le cas, la lecture interprétative de l'enseignant confirme, réfute, nuance ou étend celle du chercheur qui, au demeurant, témoigne d'une certaine sensibilité pratique, sensibilités théorique et pratique n'étant en définitive l'apanage ni de l'un ni de l'autre. Notre étude permet donc d'élargir la notion de ressources interprétatives telle que l'envisage la sociologie de l'expérience qui la définit surtout en termes de ressources argumentatives et critiques permettant aux acteurs de prendre position par rapport aux élaborations, théories proposées par les chercheurs (Dubet, 1994). Dans une telle perspective, le croisement est vu de façon dichotomique, en termes uniquement des accords et des désaccords entre les acteurs et les chercheurs. Entre les deux, l'accord et la réfutation, avons-nous montré, il y a l'espace d'une nuance, d'une extension. Enfin, dans l'optique du développement du processus de modélisation en début secondaire, l'analyse nous a permis de mettre en évidence des caractéristiques que l'on gagnerait à retrouver dans des problèmes combinatoires, d'identifier des routines d'appui et d'échanges à installer puis à maintenir dans la classe et ce pour installer une culture de modélisation (Tanner et Jones, 1994). Ce travail sur la modélisation s'inscrlt dans une pragmatique de la résolution de problèmes questionnant à la fois la prépondérance dans l'enseignement des problèmes d'application et la recherche à tout prix de l'efficacité chez les élèves. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Ressources, Interprétation, Action, Développement, Modélisation.
426

Un modèle hybride pour le support à l'apprentissage dans les domaines procéduraux et mal définis

Fournier-Viger, Philippe 11 1900 (has links) (PDF)
Pour construire des systèmes tutoriels intelligents capables d'offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l'aide d'un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l'acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine la modélisation cognitive avec une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées lors de l'usagé du système. L'approche par la fouille de données n'offre pas la finesse de la modélisation cognitive, mais elle permet d'extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n'est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l'approche fouille de données. Des algorithmes sont présentés pour exploiter les connaissances et le modèle a été appliqué dans un domaine mal défini : l'apprentissage de la manipulation du bras robotisé Canadarm2. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Systèmes tutoriels intelligents, cognition spatiale, robotique, fouille de données
427

Contributions à l'étude de quelques équations aux dérivées partielles, en mécanique des fluides et en génie côtier.

Azerad, Pascal 19 December 2007 (has links) (PDF)
Je présente essentiellement les travaux réalisés depuis ma thèse. <br />Ils se classent en trois thèmes:<br />Analyse asymptotique des équations de Navier-Stokes,<br />Optimisation de forme d'ouvrages de lutte contre l'érosion du littoral,<br />Etude d'équations aux dérivées partielles comportant des termes non-locaux.<br />Dans le thème 1, je développe la justification mathématique de l'approximation hydrostatique pour les fluides géophysiques à faible quotient d'aspect, hypothèse couramment vérifiée en océanographie et en météorologie. C'est un problème de perturbation singulière. Je présente également l'étude théorique et numérique de l'écoulement cône-plan, utilisé en hématologie-hémostase pour le sang de patients. Il s'agit d'un problème de couche limite singulière.<br /><br />Le thème 2 concerne le génie côtier. Les ouvrages utilisés tels que épis, brise-lames, enrochements sont de forme trop rudimentaire. Leur efficacité peut être améliorée significativement si leur forme est optimisée pour réduire l'énergie dissipée par la houle dans la zone proche-littorale. Nous optimisons aussi la forme de géotextiles immergés. Ce travail, réalisé dans le cadre de la thèse de Damien Isèbe, a reçu le soutien de l'ANR (projet COPTER) et s'effectue en partenariat avec le laboratoire Géosciences Montpellier et l'entreprise Bas-Rhône-Languedoc ingénierie (Nîmes).<br /><br />Dans le thème 3, nous prouvons existence, unicité et régularité de solutions pour l'équation de la chaleur fractionnaire, perturbée par un bruit blanc. C'est une équation aux dérivées partielles stochastique.Nous prouvons enfin un résultat d'existence, unicité et dépendance continue pour une loi de conservation non linéaire, comportant un terme non local, qui modélise l'évolution d'un profil de dune immergée. <br />L'intérêt mathématique est que l'équation ne vérifie pas le principe du maximum mais possède néanmoins un effet régularisant.
428

Des données anatomiques à la simulation de la locomotion : application à l'homme, au chimpanzé, et à Lucy (A.L. 288-1)

Nicolas, Guillaume 08 October 2007 (has links) (PDF)
L'identification des fondements de la locomotion passe par la compréhension des structures anatomiques et des mécanismes mis en jeu lors de ce mouvement. Les études expérimentales en biomécanique ont ainsi permis de mettre en évidence un grand nombre d'invariants tels que la minimisation de l'énergie. En paléoanthropologie, lorsqu'il s'agit d'étudier l'influence de la morphologie sur le mouvement, l'approche par« anatomie comparée» est la plus utilisée. A partir d'observations sur les espèces actuelles, cette approche propose un certain nombre d'hypothèses locomotrices pour des espèces fossiles. Toutefois, la plupart des analyses en paléoanthropologie se focalisent sur une partie isolée du squelette (la hanche, le genou ou le bassin par exemple) et il est difficile de faire fonctionner ensemble des caractéristiques anatomiques de nature très différente et provenant de différentes parties du corps. Dans ce travail, nous proposons d'adapter des méthodes de simulation du mouvement bipède afin d'étudier les relations entre les paramètres anatomiques et le mouvement. Nous proposons, dans un premier temps, une méthode pour modéliser des squelettes et les exploiter pour la simulation. Nous décrivons ensuite une solution pour calculer les mouvements de la chaîne articulaire pelvienne à partir d'une trajectoire connue des pieds. Enfin, nous décrirons comment cette précédente méthode peut être utilisée pour simuler une locomotion bipède incluant le calcul de la trajectoire des pieds. Après avoir validé cette approche globale chez l'homme, nous proposons une application à un chimpanzé et à un spécimen d'Australopithecus afarensis ("Lucy", A.L.288-1). L'application paléontologique vise à tester l'influence de la longueur de pas et de diverses reconstructions de squelettes sur les mouvements simulés. En plus de l'apport scientifique dans le domaine de l'analyse du mouvement, ce travail a des implications directes dans le domaine des activités physiques et sportives afin de comprendre les fondamentaux de la performance motrice
429

Modélisation moléculaire des lectines et des glycosyltransférases

Snajdrova, Lenka 05 June 2006 (has links) (PDF)
Les glycosyltransférases et les lectines sont deux familles de protéines impliquées respectivement dans la biosynthèse et la reconnaissance spécifique des glucides. Une partie de ces travaux a été consacrée à la mise à jour de la base de données des structures cristallographiques de glycosyltransférases. La modélisation par homologie de certaines glycosyltransférases d'intérêt biologique dont les structures cristallographiques n'ont pas encore été résolues a été effectuée. Des simulations de dynamique moléculaire de la glycosyltransférase LgtC, qui participe à la biosynthèse des lipooligosaccharides (LOS) chez la bactérie Neisseria meningitidis, ont permis de suggérer un mécanisme de réaction.<br />La lectine PA-IIL de Pseudomonas aeruginosa présente une affinité inhabituellement forte pour le fucose. Les calculs quantiques sur un modèle incluant le site de liaison de la lectine en complexe avec le fucose ont montré que la l'interaction forte entre la protéine et le ligand pourrait partiellement être causée par une délocalisation importante des charges électrostatiques.
430

Modélisation de la dynamique de forêts naturelles tropicales : quel niveau de description?

Picard, Nicolas 12 October 2007 (has links) (PDF)
La modélisation de la dynamique des forêts naturelles tropicales peut reposer sur deux niveaux de description : l'arbre ou la distribution en taille des arbres au sein du peuplement. Mes travaux ont porté essentiellement sur le lien entre ces deux niveaux de description, que ce soit d'un point de vue théorique ou appliqué. La théorie de l'agrégation permet ainsi de basculer du niveau détaillé de l'arbre au niveau agrégé de la distribution. Lorsque les interactions entre arbres ne sont pas dépendantes des distances, l'agrégation est asymptotiquement parfaite. Dans le cas contraire, il est essentiel de pouvoir modéliser la relation rétro-active de la dynamique sur la répartition spatiale des arbres. La méthode des moments apporte alors une solution approximative à la question de l'agrégation. La question peut également être abordée dans le sens inverse (désagrégation), le modèle de dynamique étant vu comme un algorithme de simulation d'un processus ponctuel marqué (la marque étant la taille des arbres). Ces questions se transposent pour traiter le cas de la diversité spécifique propre aux forêts tropicales. La théorie de l'agrégation peut à nouveau être mise en oeuvre pour regrouper les multiples espèces en groupes ayant des caractéristiques de dynamique communes.

Page generated in 0.3283 seconds