• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 33
  • 11
  • 1
  • Tagged with
  • 142
  • 46
  • 42
  • 26
  • 22
  • 22
  • 22
  • 22
  • 21
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Essais cliniques de recherche de dose en oncologie : d'un schéma d'essai permettant l'inclusion continue à l’utilisation des données longitudinales de toxicité / Dose-finding clinical trials in oncology : from continuous enrolment, to the integration of repeated toxicity measurements

Doussau de Bazignan, Adélaïde 31 March 2014 (has links)
L’objectif des essais de phase I en oncologie est d’identifier la dose maximale tolérée (DMT). Le schéma « 3+3 » nécessite d’interrompre les inclusions en attendant l’évaluation d’une cohorte de trois patients pour définir la dose à attribuer aux patients suivants. Les investigateurs d’oncologie pédiatrique ont proposé l’adaptation Rolling 6 pour éviter cette suspension temporaire des inclusions. Dans une étude de simulation, nous avons montré qu’un schéma adaptatif avec attribution des doses basées sur un modèle statistique permettait de pallier ce problème, et identifiait plus fréquemment la DMT. Néanmoins ces trois schémas restent limités pour identifier la DMT, notamment du fait que le critère de jugement est un critère binaire, la survenue de toxicité dose-limitante sur un cycle de traitement. Nous avons proposé un nouveau schéma adaptatif utilisant les données ordinales répétées de toxicité sur l’ensemble des cycles de traitement. La dose à identifier est celle associée au taux de toxicité grave maximal par cycle que l’on juge tolérable. Le grade maximal de toxicité par cycle de traitement, en 3 catégories (grave / modéré / nul), a été modélisé par le modèle mixte à cotes proportionnelles. Le modèle est performant à la fois pour détecter un effet cumulé dans le temps et améliore l’identification de la dose cible, sans risque majoré de toxicité, et sans rallonger la durée des essais. Nous avons aussi étudié l’intérêt de ce modèle ordinal par rapport à un modèle logistique mixte plus parcimonieux. Ces modèles pour données longitudinales devraient être plus souvent utilisés pour l’analyse des essais de phase I étant donné leur pertinence et la faisabilité de leur implémentation. / Phase I dose-finding trials aim at identifying the maximum tolerated dose (MTD). The “3+3” design requires an interruption of enrolment while the evaluation of the previous three patients is pending. In pediatric oncology, investigators proposed the Rolling 6 design to allow for a more continuous enrollment. In a simulation study, we showed that an adaptive dose-finding design, with dose allocation guided by a statistical model not only minimizes accrual suspension as with the rolling 6, and but also led to identify more frequently the MTD. However, the performance of these designs in terms of correct identification of the MTD is limited by the binomial variability of the main outcome: the occurrence of dose-limiting toxicity over the first cycle of treatment. We have then proposed a new adaptive design using repeated ordinal data of toxicities experienced during all the cycles of treatment. We aim at identifying the dose associated with a specified tolerable probability of severe toxicity per cycle. The outcome was expressed as the worst toxicity experienced, in three categories (severe / moderate / no toxicity), repeated at each treatment cycle. It was modeled through a proportional odds mixed model. This model enables to seek for cumulated toxicity with time, and to increase the ability to identify the targeted dose, with no increased risk of toxicity, and without delaying study completion. We also compared this ordinal model to a more parsimonious logistic mixed model.Because of their applicability and efficiency, those models for longitudinal data should be more often used in phase I dose-finding trials.
122

Nonlinear and Hybrid Feedbacks with Continuous-Time Linear Systems / Rétroactions non linéaires et hybrides avec systèmes linéaires à temps continu

Cocetti, Matteo 21 May 2019 (has links)
Dans cette thèse, nous étudions la rétroaction de systèmes linéaires invariants dans le temps reliés entre eux par trois blocs non linéaires spécifiques : un opérateur de lecture/arrêt, un mécanisme de réinitialisation de commutation et une zone morte adaptative. Cette configuration ressemble au problème de Lure étudié dans le cadre de stabilité absolue, mais les types de non-linéarités considérés ici ne satisfont pas (en général) une condition sectorielle. Ces blocs non linéaires donnent lieu à toute une série de phénomènes intéressants, tels que des ensembles compacts d’équilibres, des ensembles hybrides oméga-limites et des contraintes d’état. Tout au long de la thèse, nous utilisons le formalisme des systèmes hybrides pour décrire ces phénomènes et analyser ces boucles. Nous obtenons des conditions de stabilité très précises qui peuvent être formulées sous forme d’inégalités matricielles linéaires, donc vérifiables avec des solveurs numériques efficaces. Enfin, nous appliquons les résultats théoriques à deux applications automobiles. / In this thesis we study linear time-invariant systems feedback interconnected with three specific nonlinear blocks; a play/stop operator, a switching-reset mechanism, and an adaptive dead-zone. This setup resembles the Lure problem studied in the absolute stability framework, but the types of nonlinearities considered here do not satisfy (in general) a sector condition. These nonlinear blocks give rise to a whole range of interesting phenomena, such as compact sets of equilibria, hybrid omega-limit sets, and state constraints. Throughout the thesis, we use the hybrid systems formalism to describe these phenomena and to analyze these loops. We obtain sharp stability conditions that can be formulated as linear matrix inequalities, thus verifiable with numerically efficient solvers. Finally, we apply the theoretical findings to two automotive applications.
123

Conception sûre et optimale de systèmes dynamiques critiques auto-adaptatifs soumis à des événements redoutés probabilistes / Safe and optimal design of dynamical, critical self-adaptive systems subject to probabilistic undesirable events

Sprauel, Jonathan 19 February 2016 (has links)
Cette étude s’inscrit dans le domaine de l’intelligence artificielle, plus précisément au croisement des deux domaines que sont la planification autonome en environnement probabiliste et la vérification formelle probabiliste. Dans ce contexte, elle pose la question de la maîtrise de la complexité face à l’intégration de nouvelles technologies dans les systèmes critiques : comment garantir que l’ajout d’une intelligence à un système, sous la forme d’une autonomie, ne se fasse pas au détriment de la sécurité ? Pour répondre à cette problématique, cette étude a pour enjeu de développer un processus outillé, permettant de concevoir des systèmes auto-adaptatifs critiques, ce qui met en œuvre à la fois des méthodes de modélisation formelle des connaissances d’ingénierie, ainsi que des algorithmes de planification sûre et optimale des décisions du système. / This study takes place in the broad field of Artificial Intelligence, specifically at the intersection of two domains : Automated Planning and Formal Verification in probabilistic environment. In this context, it raises the question of the integration of new technologies in critical systems, and the complexity it entails : How to ensure that adding intelligence to a system, in the form of autonomy, is not done at the expense of safety ? To address this issue, this study aims to develop a tool-supported process for designing critical, self-adaptive systems. Throughout this document, innovations are therefore proposed in methods of formal modeling and in algorithms for safe and optimal planning.
124

Modèles de tests adaptatifs pour le diagnostic de connaissances dans un cadre d'apprentissage à grande échelle / Cognitive diagnostic computerized adaptive testing models for large-scale learning

Vie, Jill-Jênn 05 December 2016 (has links)
Cette thèse porte sur les tests adaptatifs dans les environnements d’apprentissage. Elle s’inscrit dans les contextes de fouille de données éducatives et d’analytique de l’apprentissage, où l’on s’intéresse à utiliser les données laissées par les apprenants dans des environnements éducatifs pour optimiser l’apprentissage au sens large.L’évaluation par ordinateur permet de stocker les réponses des apprenants facilement, afin de les analyser et d’améliorer les évaluations futures. Dans cette thèse, nous nous intéressons à un certain type de test par ordinateur, les tests adaptatifs. Ceux-ci permettent de poser une question à un apprenant, de traiter sa réponse à la volée, et de choisir la question suivante à lui poser en fonction de ses réponses précédentes. Ce processus réduit le nombre de questions à poser à un apprenant tout en conservant une mesure précise de son niveau. Les tests adaptatifs sont aujourd’hui implémentés pour des tests standardisés tels que le GMAT ou le GRE, administrés à des centaines de milliers d’étudiants. Toutefois, les modèles de tests adaptatifs traditionnels se contentent de noter les apprenants, ce qui est utile pour l’institution qui évalue, mais pas pour leur apprentissage. C’est pourquoi des modèles plus formatifs ont été proposés, permettant de faire un retour plus riche à l’apprenant à l’issue du test pour qu’il puisse comprendre ses lacunes et y remédier. On parle alors de diagnostic adaptatif.Dans cette thèse, nous avons répertorié des modèles de tests adaptatifs issus de différents pans de la littérature. Nous les avons comparés de façon qualitative et quantitative. Nous avons ainsi proposé un protocole expérimental, que nous avons implémenté pour comparer les principaux modèles de tests adaptatifs sur plusieurs jeux de données réelles. Cela nous a amenés à proposer un modèle hybride de diagnostic de connaissances adaptatif, meilleur que les modèles de tests formatifs existants sur tous les jeux de données testés. Enfin, nous avons élaboré une stratégie pour poser plusieursquestions au tout début du test afin de réaliser une meilleure première estimation des connaissances de l’apprenant. Ce système peut être appliqué à la génération automatique de feuilles d’exercices, par exemple sur un cours en ligne ouvert et massif (MOOC). / This thesis studies adaptive tests within learning environments. It falls within educational data mining and learning analytics, where student educational data is processed so as to optimize their learning.Computerized assessments allow us to store and analyze student data easily, in order to provide better tests for future learners. In this thesis, we focus on computerized adaptive testing. Such adaptive tests which can ask a question to the learner, analyze their answer on the fly, and choose the next question to ask accordingly. This process reduces the number of questions to ask to a learner while keeping an accurate measurement of their level. Adaptive tests are today massively used in practice, for example in the GMAT and GRE standardized tests, that are administered to hundreds of thousands of students. Traditionally, models used for adaptive assessment have been mostly summative : they measure or rank effectively examinees, but do not provide any other feedback. Recent advances have focused on formative assessments, that provide more useful feedback for both the learner and the teacher ; hence, they are more useful for improving student learning.In this thesis, we have reviewed adaptive testing models from various research communities. We have compared them qualitatively and quantitatively. Thus, we have proposed an experimental protocol that we have implemented in order to compare the most popular adaptive testing models, on real data. This led us to provide a hybrid model for adaptive cognitive diagnosis, better than existing models for formative assessment on all tried datasets. Finally, we have developed a strategy for asking several questions at the beginning of a test in order to measure the learner more accurately. This system can be applied to the automatic generation of worksheets, for example on a massive online open course (MOOC).
125

Analyse d’image geometrique et morphometrique par diagrammes de forme et voisinages adaptatifs generaux / Geometric and morphometric image analysis by shape diagrams and general adaptive neighborhoods

Rivollier, Séverine 05 July 2010 (has links)
Les fonctionnelles de Minkowski définissent des mesures topologiques et géométriques d'ensembles, insuffisantes pour la caractérisation, des ensembles différents pouvant avoir les mêmes fonctionnelles. D'autres fonctionnelles de forme, géométriques et morphométriques, sont donc utilisées. Un diagramme de forme, défini grâce à deux fonctionnelles morphométriques, donne une représentation permettant d'étudier les formes d'ensembles. En analyse d'image, ces fonctionnelles et diagrammes sont souvent limités aux images binaires et déterminés de manière globale et mono-échelle. Les Voisinages Adaptatifs Généraux (VAG) simultanément adaptatifs avec les échelles d'analyse, structures spatiales et intensités des images, permettent de pallier ces limites. Une analyse locale, adaptative et multi-échelle des images à tons de gris est proposée sous forme de cartographies des fonctionnelles de forme à VAG.Les VAG, définis en tout point du support spatial d'une image à tons de gris, sont homogènes par rapport à un critère d'analyse représenté dans un modèle vectoriel, suivant une tolérance d'homogénéité. Les fonctionnelles de forme calculées pour chaque VAG de l'image définissent les cartographies des fonctionnelles de forme à VAG. Les histogrammes et diagrammes de ces cartographies donnent des distributions statistiques des formes des structures locales de l'image contrairement aux histogrammes classiques qui donnent une distribution globale des intensités de l'image. L'impact de la variation des critères axiomatiques des VAG est analysé à travers ces cartographies, histogrammes et diagrammes. Des cartographies multi-échelles sont construites, définissant des fonctions de forme à VAG. / Minkowski functionals define set topological and geometrical measurements, insufficient for the characterization, because different sets may have the same functionals. Thus, other shape functionals, geometrical and morphometrical are used. A shape diagram, defined thanks to two morphometrical functionals, provides a representation allowing the study of set shapes. In quantitative image analysis, these functionals and diagrams are often limited to binary images and achieved in a global and monoscale way. The General Adaptive Neighborhoods (GANs) simultaneously adaptive with the analyzing scales, the spatial structures and the image intensities, enable to overcome these limitations. The GAN-based Minkowski functionals are introduced, which allow a gray-tone image analysis to be realized in a local, adaptive and multiscale way.The GANs, defined around each point of the spatial support of a gray-tone image, are homogeneous with respect to an analyzing criterion function represented in an algebraic model, according to an homogeneity tolerance. The shape functionals computed on the GAN of each point of the spatial support of the image, define the so-called GAN-based shape maps. The map histograms and diagrams provide statistical distributions of the shape of the gray-tone image local structures, contrary to the classical histogram that provides a global distribution of image intensities. The impact of axiomatic criteria variations is analyzed through these maps, histograms and diagrams. Thus, multiscale maps are built, defining GAN-based shape functions.
126

Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.
127

Inférence non-paramétrique pour des interactions poissoniennes / Adaptive nonparametric inference for Poissonian interactions

Sansonnet, Laure 14 June 2013 (has links)
L'objet de cette thèse est d'étudier divers problèmes de statistique non-paramétrique dans le cadre d'un modèle d'interactions poissoniennes. De tels modèles sont, par exemple, utilisés en neurosciences pour analyser les interactions entre deux neurones au travers leur émission de potentiels d'action au cours de l'enregistrement de l'activité cérébrale ou encore en génomique pour étudier les distances favorisées ou évitées entre deux motifs le long du génome. Dans ce cadre, nous introduisons une fonction dite de reproduction qui permet de quantifier les positions préférentielles des motifs et qui peut être modélisée par l'intensité d'un processus de Poisson. Dans un premier temps, nous nous intéressons à l'estimation de cette fonction que l'on suppose très localisée. Nous proposons une procédure d'estimation adaptative par seuillage de coefficients d'ondelettes qui est optimale des points de vue oracle et minimax. Des simulations et une application en génomique sur des données réelles provenant de la bactérie E. coli nous permettent de montrer le bon comportement pratique de notre procédure. Puis, nous traitons les problèmes de test associés qui consistent à tester la nullité de la fonction de reproduction. Pour cela, nous construisons une procédure de test optimale du point de vue minimax sur des espaces de Besov faibles, qui a également montré ses performances du point de vue pratique. Enfin, nous prolongeons ces travaux par l'étude d'une version discrète en grande dimension du modèle précédent en proposant une procédure adaptative de type Lasso. / The subject of this thesis is the study of some adaptive nonparametric statistical problems in the framework of a Poisson interactions model. Such models are used, for instance, in neurosciences to analyze interactions between two neurons through their spikes emission during the recording of the brain activity or in genomics to study favored or avoided distances between two motifs along a genome. In this setting, we naturally introduce a so-called reproduction function that allows to quantify the favored positions of the motifs and which is considered as the intensity of a Poisson process. Our first interest is the estimation of this function assumed to be well localized. We propose a data-driven wavelet thresholding estimation procedure that is optimal from oracle and minimax points of view. Simulations and an application to genomic data from the bacterium E. coli allow us to show the good practical behavior of our procedure. Then, we deal with associated problems on tests which consist in testing the nullity of the reproduction function. For this purpose, we build a minimax optimal testing procedure on weak Besov spaces and we provide some simulations showing good practical performances of our procedure. Finally, we extend this work with the study of a high-dimensional discrete setting of our previous model by proposing an adaptive Lasso-type procedure.
128

Intelligent flood adaptative contex-aware system / Système sensible et adaptatif au contexte pour la gestion intelligente de crues

Sun, Jie 23 October 2017 (has links)
A l’avenir, l'agriculture et l'environnement vont pouvoir bénéficier de plus en plus de données hétérogènes collectées par des réseaux de capteurs sans fil (RCSF). Ces données alimentent généralement des outils d’aide à la décision (OAD). Dans cette thèse, nous nous intéressons spécifiquement aux systèmes sensibles et adaptatifs au contexte basés sur un RCSF et un OAD, dédiés au suivi de phénomènes naturels. Nous proposons ainsi une formalisation pour la conception et la mise en œuvre de ces systèmes. Le contexte considéré se compose de données issues du phénomène étudié mais également des capteurs sans fil (leur niveau d’énergie par exemple). Par l’utilisation des ontologies et de techniques de raisonnement, nous visons à maintenir le niveau de qualité de service (QdS) des données collectées (en accord avec le phénomène étudié) tant en préservant le fonctionnement du RCSF. Pour illustrer notre proposition, un cas d'utilisation complexe, l'étude des inondations dans un bassin hydrographique, est considéré. Cette thèse a produit un logiciel de simulation de ces systèmes qui intègre un système de simulation multi-agents (JADE) avec un moteur d’inférence à base de règles (Jess). / In the future, agriculture and environment will rely on more and more heterogeneous data collected by wireless sensor networks (WSN). These data are generally used in decision support systems (DSS). In this dissertation, we focus on adaptive context-aware systems based on WSN and DSS, dedicated to the monitoring of natural phenomena. Thus, a formalization for the design and the deployment of these kinds of systems is proposed. The considered context is established using the data from the studied phenomenon but also from the wireless sensors (e.g., their energy level). By the use of ontologies and reasoning techniques, we aim to maintain the required quality of service (QoS) level of the collected data (according to the studied phenomenon) while preserving the resources of the WSN. To illustrate our proposal, a complex use case, the study of floods in a watershed, is described. During this PhD thesis, a simulator for context-aware systems which integrates a multi-agent system (JADE) and a rule engine (Jess) has been developed.Keywords: ontologies, rule-based inferences, formalization, heterogeneous data, sensors data streams integration, WSN, limited resources, DSS, adaptive context-aware systems, QoS, agriculture, environment.
129

Développement et analyse de méthodes de volumes finis

Omnes, Pascal 04 May 2010 (has links) (PDF)
Ce document synthétise un ensemble de travaux portant sur le développement et l'analyse de méthodes de volumes finis utilisées pour l'approximation numérique d'équations aux dérivées partielles issues de la physique. Le mémoire aborde dans sa première partie des schémas colocalisés de type Godunov d'une part pour les équations de l'électromagnétisme, et d'autre part pour l'équation des ondes acoustiques, avec une étude portant sur la perte de précision de ce schéma à bas nombre de Mach. La deuxième partie est consacrée à la construction d'opérateurs différentiels discrets sur des maillages bidimensionnels relativement quelconques, en particulier très déformés ou encore non-conformes, et à leur utilisation pour la discrétisation d'équations aux dérivées partielles modélisant des phénomènes de diffusion, d'électrostatique et de magnétostatique et d'électromagnétisme par des schémas de type volumes finis en dualité discrète (DDFV) sur maillages décalés. La troisième partie aborde ensuite l'analyse numérique et les estimations d'erreur a priori et a posteriori associées à la discrétisation par le schéma DDFV de l'équation de Laplace. La quatrième et dernière partie est consacrée à la question de l'ordre de convergence en norme $L^2$ de la solution numérique du problème de Laplace, issue d'une discrétisation volumes finis en dimension un et en dimension deux sur des maillages présentant des propriétés d'orthogonalité. L'étude met en évidence des conditions nécessaires et suffisantes relatives à la géométrie des maillages et à la régularité des données du problème afin d'obtenir la convergence à l'ordre deux de la méthode.
130

Configuration et Reconfiguration des Systèmes Temps-Reél Répartis Embarqués Critiques et Adaptatifs

Borde, Etienne 01 December 2009 (has links) (PDF)
Aujourd'hui, de plus en plus de systèmes industriels s'appuient sur des applications logicielles temps-réel réparties embarquées (TR2E). La réalisation de ces applications demande de répondre à un ensemble important de contraintes très hétérogènes, voire contradictoires. Pour satisfaire ces contraintes, il est presque toujours nécessaire de fournir à ces systèmes des capacités d'adaptation. Par ailleurs, certaines de ces applications pilotent des systèmes dont la défection peut avoir des conséquences financières - voire humaines - dramatiques. Pour concevoir de telles applications, appelées applications critiques, il faut s'appuyer sur des processus de développpement rigoureux capables de repérer et d'éliminer les erreurs de conception potentielles. Malheureusement, il n'existe pas à notre connaissance de processus de développement capable de traiter ce problème dans le cas où l'adaptation du système à son environnement conduit à modifier sa configuration logicielle. Ce travail de thèse présente une nouvelle méthodologie qui répond à cette problématique en s'appuyant sur la notion de mode de fonctionnement : chacun des comportements possibles du système est représenté par le biais d'un mode de fonctionnement auquel est associé une configuration logicielle. La spécification des règles de transition entre ces modes de fonctionnement permet alors de générer l'implantation des mécanismes de changement de mode, ainsi que des reconfigurations logicielles associées. Le code ainsi produit respecte les contraintes de réalisation des systèmes critiques et implante des mécanismes de reconfiguration sûrs et analysables. Pour ce faire, nous avons défini un nouveau langage de description d'architecture (COAL : Component Oriented Architecture Language) qui permet de bénéficier à la fois des avantages du génie logiciel à base de composants (de type Lightweight CCM), et des techniques d'analyse, de déploiement et de configuration statique, qu'apporte l'utilisation des langages de description d'architecture (et en particulier AADL : Architecture Analysis and Description Language). Nous avons alors réalisé un nouveau framework à composant, MyCCM-HI (Make your Component Container Model - High Integrity), qui exploite les constructions de COAL pour (i) générer le modèle AADL permettant de réaliser le déploiement et la configuration statique de l'application TR2E, (ii) générer le code de déploiement et de configuration des composants logiciels de type Lightweight CCM, (iii) générer le code correspondant aux mécanismes d'adaptation du système, et (iv) analyser formellement le comportement du système, y compris en cours d'adaptation. Ce framework à composant est disponible au téléchargement à l'adresse http ://myccm-hi.sourceforge.net.

Page generated in 0.0523 seconds