Spelling suggestions: "subject:"séquentiel"" "subject:"fréquentiel""
21 |
Contributions à l'analyse de fiabilité structurale : prise en compte de contraintes de monotonie pour les modèles numériques / Contributions to structural reliability analysis : accounting for monotonicity constraints in numerical modelsMoutoussamy, Vincent 13 November 2015 (has links)
Cette thèse se place dans le contexte de la fiabilité structurale associée à des modèles numériques représentant un phénomène physique. On considère que la fiabilité est représentée par des indicateurs qui prennent la forme d'une probabilité et d'un quantile. Les modèles numériques étudiés sont considérés déterministes et de type boîte-noire. La connaissance du phénomène physique modélisé permet néanmoins de faire des hypothèses de forme sur ce modèle. La prise en compte des propriétés de monotonie dans l'établissement des indicateurs de risques constitue l'originalité de ce travail de thèse. Le principal intérêt de cette hypothèse est de pouvoir contrôler de façon certaine ces indicateurs. Ce contrôle prend la forme de bornes obtenues par le choix d'un plan d'expériences approprié. Les travaux de cette thèse se concentrent sur deux thématiques associées à cette hypothèse de monotonie. La première est l'étude de ces bornes pour l'estimation de probabilité. L'influence de la dimension et du plan d'expériences utilisé sur la qualité de l'encadrement pouvant mener à la dégradation d'un composant ou d'une structure industrielle sont étudiées. La seconde est de tirer parti de l'information de ces bornes pour estimer au mieux une probabilité ou un quantile. Pour l'estimation de probabilité, l'objectif est d'améliorer les méthodes existantes spécifiques à l'estimation de probabilité sous des contraintes de monotonie. Les principales étapes d'estimation de probabilité ont ensuite été adaptées à l'encadrement et l'estimation d'un quantile. Ces méthodes ont ensuite été mises en pratique sur un cas industriel. / This thesis takes place in a structural reliability context which involves numerical model implementing a physical phenomenon. The reliability of an industrial component is summarised by two indicators of failure,a probability and a quantile. The studied numerical models are considered deterministic and black-box. Nonetheless, the knowledge of the studied physical phenomenon allows to make some hypothesis on this model. The original work of this thesis comes from considering monotonicity properties of the phenomenon for computing these indicators. The main interest of this hypothesis is to provide a sure control on these indicators. This control takes the form of bounds obtained by an appropriate design of numerical experiments. This thesis focuses on two themes associated to this monotonicity hypothesis. The first one is the study of these bounds for probability estimation. The influence of the dimension and the chosen design of experiments on the bounds are studied. The second one takes into account the information provided by these bounds to estimate as best as possible a probability or a quantile. For probability estimation, the aim is to improve the existing methods devoted to probability estimation under monotonicity constraints. The main steps built for probability estimation are then adapted to bound and estimate a quantile. These methods have then been applied on an industrial case.
|
22 |
Caractérisation impérative des algorithmes séquentiels en temps quelconque, primitif récursif ou polynomial / Imperative characterization of sequential algorithms in general, primitive recursive or polynomial timeMarquer, Yoann 09 October 2015 (has links)
Les résultats de Colson ou de Moschovakis remettent en question que le modèle récursif primitif puisse calculer une valeur par tous les moyens possibles : il y a toutes les fonctions voulues mais il manque des algorithmes. La thèse de Church exprime donc plutôt ce qui peut être calculé que comment le calcul est fait. Nous utilisons la thèse de Gurevich formalisant l'idée intuitive d'algorithme séquentiel par les Abstract States Machines (ASMs).Nous représentons les programmes impératifs par le langage While de Jones, et une variante LoopC du langage de Meyer et Ritchie permettant de sortir d'une boucle lorsqu'une condition est remplie. Nous dirons qu'un langage caractérise une classe algorithmique si les modèles de calcul associés peuvent se simuler mutuellement, en utilisant une dilatation temporelle et un nombre borné de variables temporaires. Nous prouvons que les ASMs peuvent simuler While et LoopC, que si l'espace est primitif récursif alors LoopC est en temps récursif primitif, et que sa restriction LoopC_stat où les bornes des boucles ne peuvent être mises à jour est en temps polynomial. Réciproquement, une étape d'ASM peut être traduite par un programme sans boucle, qu'on peut répéter suffisamment en l'insérant dans un programme qui est dans While si la complexité est quelconque, dans LoopC si elle est récursif primitif, et dans LoopC_stat si elle est polynomiale.Ainsi While caractérise les algorithmes séquentiels en temps quelconque, LoopC ceux en temps et espace récursifs primitifs, et LoopC_stat ceux en temps polynomial / Colson and Moschovakis results cast doubt on the ability of the primitive recursive model to compute a value by any means possible : the model may be complete for functions but there is a lack of algorithms. So the Church thesis express more what can be computed than how the computation is done. We use Gurevich thesis to formalize the intuitive idea of sequential algorithm by the Abstract States Machines (ASMs).We formalize the imperative programs by Jones' While language, and a variation LoopC of Meyer and Ritchie's language allowing to exit a loop if some condition is fulfilled. We say that a language characterizes an algorithmic class if the associated models of computations can simulate each other using a temporal dilatation and a bounded number of temporary variables. We prove that the ASMs can simulate While and LoopC, that if the space is primitive recursive then LoopC is primitive recursive in time, and that its restriction LoopC_stat where the bounds of the loops cannot be updated is in polynomial time. Reciprocally, one step of an ASM can be translated into a program without loop, which can be repeated enough times if we insert it onto a program in While for a general complexity, in LoopC for a primitive recursive complexity, and in LoopC_stat for a polynomial complexity.So While characterizes the sequential algorithms, LoopC the algorithms in primitive recursive space and time, and LoopC_stat the polynomial time algorithms
|
23 |
Contributions à l’agrégation séquentielle robuste d’experts : Travaux sur l’erreur d’approximation et la prévision en loi. Applications à la prévision pour les marchés de l’énergie. / Contributions to online robust aggregation : work on the approximation error and on probabilistic forecasting. Applications to forecasting for energy markets.Gaillard, Pierre 06 July 2015 (has links)
Nous nous intéressons à prévoir séquentiellement une suite arbitraire d'observations. À chaque instant, des experts nous proposent des prévisions de la prochaine observation. Nous formons alors notre prévision en mélangeant celles des experts. C'est le cadre de l'agrégation séquentielle d'experts. L'objectif est d'assurer un faible regret cumulé. En d'autres mots, nous souhaitons que notre perte cumulée ne dépasse pas trop celle du meilleur expert sur le long terme. Nous cherchons des garanties très robustes~: aucune hypothèse stochastique sur la suite d'observations à prévoir n'est faite. Celle-ci est supposée arbitraire et nous souhaitons des garanties qui soient vérifiées quoi qu'il arrive. Un premier objectif de ce travail est l'amélioration de la performance des prévisions. Plusieurs possibilités sont proposées. Un exemple est la création d'algorithmes adaptatifs qui cherchent à s'adapter automatiquement à la difficulté de la suite à prévoir. Un autre repose sur la création de nouveaux experts à inclure au mélange pour apporter de la diversité dans l'ensemble d'experts. Un deuxième objectif de la thèse est d'assortir les prévisions d'une mesure d'incertitude, voire de prévoir des lois. Les applications pratiques sont nombreuses. En effet, très peu d'hypothèses sont faites sur les données. Le côté séquentiel permet entre autres de traiter de grands ensembles de données. Nous considérons dans cette thèse divers jeux de données du monde de l'énergie (consommation électrique, prix de l'électricité,...) pour montrer l'universalité de l'approche. / We are interested in online forecasting of an arbitrary sequence of observations. At each time step, some experts provide predictions of the next observation. Then, we form our prediction by combining the expert forecasts. This is the setting of online robust aggregation of experts. The goal is to ensure a small cumulative regret. In other words, we want that our cumulative loss does not exceed too much the one of the best expert. We are looking for worst-case guarantees: no stochastic assumption on the data to be predicted is made. The sequence of observations is arbitrary. A first objective of this work is to improve the prediction accuracy. We investigate several possibilities. An example is to design fully automatic procedures that can exploit simplicity of the data whenever it is present. Another example relies on working on the expert set so as to improve its diversity. A second objective of this work is to produce probabilistic predictions. We are interested in coupling the point prediction with a measure of uncertainty (i.e., interval forecasts,…). The real world applications of the above setting are multiple. Indeed, very few assumptions are made on the data. Besides, online learning that deals with data sequentially is crucial to process big data sets in real time. In this thesis, we carry out for EDF several empirical studies of energy data sets and we achieve good forecasting performance.
|
24 |
Etude du transcriptome à partir de données de comptages issues de séquençage haut débit / Transcriptome analysis from high-throughput sequencing count dataMirauta, Bogdan 12 December 2014 (has links)
Les technologies de séquençage jouent un rôle croissant dans l'analyse de l'expression des transcrits . La méthode la plus courante de séquençage du transcriptome, RNA-Seq est une méthode d'investigation d'une population de transcrits par cisaillement aléatoire, amplification et séquençage à haut débit. Les données issues du RNA-Seq peuvent être utilisées pour la quantification des niveaux d'expression des transcrits et pour la détection des régions transcrites et demandent des approches bioinformatiques.Nous avons développé des approches statistiques pour l'estimation des niveaux de transcription et l'identification des frontières de transcription sans faire usage de l'annotation existante et pour l'analyse des différences dans l'expression entre deux conditions. La reconstruction du paysage transcriptionel est faite dans un cadre probabiliste (Chaînes de Markov Caché - HMM) ou les variations du niveau de la transcription sont prises en compte en termes de changements brusques et de dérives. Le HMM est complété par une loi d'émission qui capture la variance des comptages dans un transcrit, l'auto-corrélation de courte portée et la fraction des positions avec zéro comptages. L'estimation repose sur un algorithme de Monte Carlo Séquentiel (SMC), le Particle Gibbs, dont le temps d'exécution est plus adapté aux génomes microbiennes. L'analyse des différences dans l'expression (DE) est réalisée sans faire usage de l'annotation existante. L'estimation de DE est premièrement faite à la résolution de position et en suite les régions avec un signal DE continu sont agrégés. Deux programmes nommés Parseq et Pardiff sont disponibles à http://www.lgm.upmc.fr/parseq/. / In this thesis we address the problem of reconstructing the transcription profile from RNA-Seq reads in cases where the reference genome is available but without making use of existing annotation. In the first two chapters consist of an introduction to the biological context, high-throughput sequencing and the statistical methods that can be used in the analysis of series of counts. Then we present our contribution for the RNA-Seq read count model, the inference transcription profile by using Particle Gibbs and the reconstruction of DE regions. The analysis of several data-sets proved that using Negative Binomial distributions to model the read count emission is not generally valid. We develop a mechanistic model which accounts for the randomness generated within all RNA-Seq protocol steps. Such a model is particularly important for the assessment of the credibility intervals associated with the transcription level and coverage changes. Next, we describe a State Space Model accounting for the read count profile for observations and transcription profile for the latent variable. For the transition kernel we design a mixture model combining the possibility of making, between two adjacent positions, no move, a drift move or a shift move. We detail our approach for the reconstruction of the transcription profile and the estimation of parameters using the Particle Gibbs algorithm. In the fifth chapter we complete the results by presenting an approach for analysing differences in expression without making use of existing annotation. The proposed method first approximates these differences for each base-pair and then aggregates continuous DE regions.
|
25 |
Comparaison de deux stratégies pour favoriser la généralisation des apprentissages chez des enfants ayant un trouble du spectre de l’autismeDufour, Marie-Michèle 05 1900 (has links)
Les enfants atteints d’un trouble du spectre de l’autisme (TSA) présentent souvent des difficultés à généraliser leurs apprentissages à des nouveaux stimuli, contextes et individus (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). Pour cette raison, il est important d’utiliser des techniques promouvant la généralisation au sein des programmes d’intervention leur étant destinés. Cette recherche visait à évaluer l’efficacité de deux des techniques les plus fréquemment utilisées dans les programmes d’intervention comportementale intensive (ICI), soit l’enseignement séquentiel et l’enseignement simultané, afin de déterminer si l’une d’elles était systématiquement plus efficace que l’autre pour promouvoir la généralisation des concepts chez les enfants ayant un TSA. Des devis expérimentaux à cas unique ont été utilisés pour évaluer les effets des deux techniques sur la généralisation de quatre enfants ayant un diagnostic de TSA et recevant des services d’ICI en clinique privée. Pour deux participants, la méthode enseignement simultané a démontré une plus grande efficacité quant à la généralisation des concepts enseignés. Pour les deux autres, les deux techniques se sont avérées aussi efficaces. Bien que préliminaires, les résultats suggèrent qu’il serait préférable d’appliquer la méthode enseignement simultané lors de l’enseignement de concepts chez les enfants ayant un TSA en contexte d’ICI. / Children with autism spectrum disorder (ASD) often show difficulties in generalizing what they have learned to new stimuli, contexts or persons (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). For this reason, it is important to implement strategies to promote generalization within programs intended for this population. This study aimed to compare the effectiveness of two of the most commonly used strategies in intensive behavioral intervention (IBI), serial training and concurrent teaching, to determine whether one was systematically more effective than the other at promoting generalization in children with ASD? Single-case experimental designs were used to assess the effects of the two strategies with four children with an ASD diagnosis receiving services in a private clinic. For two participants, concurrent teaching was more effective to promote generalisation of the learned concepts. For the remaining two participants, the two strategies were equally effective. Albeit preliminary, the results suggest that it may be preferable to introduce exemplars concurrently when teaching concepts to children with ASD within IBI programs.
|
26 |
Monte Carlo methods for sampling high-dimensional binary vectors / Monte Carlo séquentiel pour le choix de modèle bayésien : théorie et méthodesSchäfer, Christian 14 November 2012 (has links)
Cette thèse est consacrée à l'étude des méthodes de Monte Carlo pour l'échantillonnage de vecteurs binaires de grande dimension à partir de lois cibles complexes. Si l'espace-état est trop grand pour une énumération exhaustive, ces méthodes permettent d'estimer l’espérance d’une loi donnée par rapport à une fonction d'intérêt. Les approches standards sont principalement basées sur les méthodes Monte Carlo à chaîne de Markov de type marche aléatoire, où la loi stationnaire de la chaîne est la distribution d’intérêt et la moyenne de la trajectoire converge vers l’espérance par le théorème ergodique. Nous proposons un nouvel algorithme d'échantillonnage basé sur les méthodes de Monte Carlo séquentielles qui sont plus robustes au problème de multimodalité grâce à une étape de recuit simulé. La performance de l'échantillonneur de Monte Carlo séquentiel dépend de la capacité d’échantillonner selon des lois auxiliaires qui sont, en un certain sens, proche à la loi de l'intérêt. Le travail principal de cette thèse présente des stratégies visant à construire des familles paramétriques pour l'échantillonnage de vecteurs binaires avec dépendances. L'utilité de cette approche est démontrée dans le cadre de sélection bayésienne de variables et l'optimisation combinatoire des fonctions pseudo-booléennes. / This thesis is concerned with Monte Carlo methods for sampling high-dimensional binary vectors from complex distributions of interest. If the state space is too large for exhaustive enumeration, these methods provide a mean of estimating the expected value with respect to some function of interest. Standard approaches are mostly based on random walk type Markov chain Monte Carlo, where the equilibrium distribution of the chain is the distribution of interest and its ergodic mean converges to the expected value. We propose a novel sampling algorithm based on sequential Monte Carlo methodology which copes well with multi-modal problems by virtue of an annealing schedule. The performance of the proposed sequential Monte Carlo sampler depends on the ability to sample proposals from auxiliary distributions which are, in a certain sense, close to the current distribution of interest. The core work of this thesis discusses strategies to construct parametric families for sampling binary vectors with dependencies. The usefulness of this approach is demonstrated in the context of Bayesian variable selection and combinatorial optimization of pseudo-Boolean objective functions.
|
27 |
A study of some morphological operators in simplicial complex spaces / Une étude de certains opérateurs morphologiques dans les complexes simpliciauxSalve Dias, Fabio Augusto 21 September 2012 (has links)
Dans ce travail, nous étudions le cadre de la morphologie mathématique sur les complexes simpliciaux. Complexes simpliciaux sont une structure versatile et largement utilisée pour représenter des données multidimensionnelles, telles que des maillages, qui sont des complexes tridimensionnels, ou des graphes, qui peuvent être interprétées comme des complexes bidimensionnels. La morphologie mathématique est l'un des cadres les plus puissants pour le traitement de l'image, y compris le traitement des structures numériques, et est largement utilisé pour de nombreuses applications. Toutefois, les opérateurs de morphologie mathématique sur des espaces complexes simpliciaux n'est pas un concept entièrement développé dans la littérature. Dans ce travail, nous passons en revue certains opérateurs classiques des complexes simpliciaux sous la lumière de la morphologie mathématique, de montrer qu'ils sont des opérateurs de morphologie. Nous définissons certains treillis de base et les opérateurs agissant sur ces treillis: dilatations, érosions, ouvertures, fermetures et filtres alternés séquentiels, et aussi leur extension à simplexes pondérés. Cependant, les principales contributions de ce travail sont ce que nous appelions les opérateurs dimensionnels, petites et polyvalents opérateurs qui peuvent être utilisés pour définir de nouveaux opérateurs sur les complexes simpliciaux, qui garde les propriétés de la morphologie mathématique. Ces opérateurs peuvent également être utilisés pour exprimer pratiquement n'importe quel opérateur dans la littérature. Nous illustrons les opérateurs définis et nous comparons les filtres alternés séquentiels contre filtres définis dans la littérature, où nos filtres présentent de meilleurs résultats pour l'enlèvement du petit, intense bruit des images binaires / In this work we study the framework of mathematical morphology on simplicial complex spaces. Simplicial complexes are a versatile and widely used structure to represent multidimensional data, such as meshes, that are tridimensional complexes, or graphs, that can be interpreted as bidimensional complexes. Mathematical morphology is one of the most powerful frameworks for image processing, including the processing of digital structures, and is heavily used for many applications. However, mathematical morphology operators on simplicial complex spaces is not a concept fully developped in the literature. In this work, we review some classical operators from simplicial complexes under the light of mathematical morphology, to show that they are morphology operators. We define some basic lattices and operators acting on these lattices: dilations, erosions, openings, closings and alternating sequential filters, including their extension to weighted simplexes. However, the main contributions of this work are what we called dimensional operators, small, versatile operators that can be used to define new operators on simplicial complexes, while mantaining properties from mathematical morphology. These operators can also be used to express virtually any operator from the literature. We illustrate all the defined operators and compare the alternating sequential filters against filters defined in the literature, where our filters show better results for removal of small, intense, noise from binary images
|
28 |
Motif extraction from complex data : case of protein classification / Extraction de motifs des données complexes : cas de la classification des protéinesSaidi, Rabie 03 October 2012 (has links)
La classification est l’un des défis important en bioinformatique, aussi bien pour les données protéiques que nucléiques. La présence de ces données en grandes masses, leur ambiguïté et en particulier les coûts élevés de l’analyse in vitro en termes de temps et d’argent, rend l’utilisation de la fouille de données plutôt une nécessité qu’un choix rationnel. Cependant, les techniques fouille de données, qui traitent souvent des données sous le format relationnel, sont confrontés avec le format inapproprié des données biologiques. Par conséquent, une étape inévitable de prétraitement doit être établie. Cette thèse traite du prétraitement de données protéiques comme une étape de préparation avant leur classification. Nous présentons l’extraction de motifs comme un moyen fiable pour répondre à cette tâche. Les motifs extraits sont utilisés comme descripteurs, en vue de coder les protéines en vecteurs d’attributs. Cela permet l’utilisation des classifieurs connus. Cependant, la conception d’un espace appropié d’attributs, n’est pas une tâche triviale. Nous traitons deux types de données protéiques à savoir les séquences et les structures 3D. Dans le premier axe, i:e:; celui des séquences, nous proposons un nouveau procédé de codage qui utilise les matrices de substitution d’acides aminés pour définir la similarité entre les motifs lors de l’étape d’extraction. En utilisant certains classifieurs, nous montrons l’efficacité de notre approche en la comparant avec plusieurs autres méthodes de codage. Nous proposons également de nouvelles métriques pour étudier la robustesse de certaines de ces méthodes lors de la perturbation des données d’entrée. Ces métriques permettent de mesurer la capacité d’une méthode de révéler tout changement survenant dans les données d’entrée et également sa capacité à cibler les motifs intéressants. Le second axe est consacré aux structures protéiques 3D, qui ont été récemment considérées comme graphes d’acides aminés selon différentes représentations. Nous faisons un bref survol sur les représentations les plus utilisées et nous proposons une méthode naïve pour aider à la construction de graphes d’acides aminés. Nous montrons que certaines méthodes répandues présentent des faiblesses remarquables et ne reflètent pas vraiment la conformation réelle des protéines. Par ailleurs, nous nous intéressons à la découverte, des sous-structures récurrentes qui pourraient donner des indications fonctionnelles et structurelles. Nous proposons un nouvel algorithme pour trouver des motifs spatiaux dans les protéines. Ces motifs obéissent à un format défini sur la base d’une argumentation biologique. Nous comparons avec des motifs séquentiels et spatiaux de certains travaux reliés. Pour toutes nos contributions, les résultats expérimentaux confirment l’efficacité de nos méthodes pour représenter les séquences et les structures protéiques, dans des tâches de classification. Les programmes développés sont disponibles sur ma page web http://fc.isima.fr/~saidi. / The classification of biological data is one of the significant challenges inbioinformatics, as well for protein as for nucleic data. The presence of these data in hugemasses, their ambiguity and especially the high costs of the in vitro analysis in terms oftime and resources, make the use of data mining rather a necessity than a rational choice.However, the data mining techniques, which often process data under the relational format,are confronted with the inappropriate format of the biological data. Hence, an inevitablestep of pre-processing must be established.This thesis deals with the protein data preprocessing as a preparation step before theirclassification. We present motif extraction as a reliable way to address that task. The extractedmotifs are used as descriptors to encode proteins into feature vectors. This enablesthe use of known data mining classifiers which require this format. However, designing asuitable feature space, for a set of proteins, is not a trivial task.We deal with two kinds of protein data i:e:, sequences and tri-dimensional structures. In thefirst axis i:e:, protein sequences, we propose a novel encoding method that uses amino-acidsubstitution matrices to define similarity between motifs during the extraction step. Wedemonstrate the efficiency of such approach by comparing it with several encoding methods,using some classifiers. We also propose new metrics to study the robustness of some ofthese methods when perturbing the input data. These metrics allow to measure the abilityof the method to reveal any change occurring in the input data and also its ability to targetthe interesting motifs. The second axis is dedicated to 3D protein structures which are recentlyseen as graphs of amino acids. We make a brief survey on the most used graph-basedrepresentations and we propose a naïve method to help with the protein graph making. Weshow that some existing and widespread methods present remarkable weaknesses and do notreally reflect the real protein conformation. Besides, we are interested in discovering recurrentsub-structures in proteins which can give important functional and structural insights.We propose a novel algorithm to find spatial motifs from proteins. The extracted motifsmatch a well-defined shape which is proposed based on a biological basis. We compare withsequential motifs and spatial motifs of recent related works. For all our contributions, theoutcomes of the experiments confirm the efficiency of our proposed methods to representboth protein sequences and protein 3D structures in classification tasks.Software programs developed during this research work are available on my home page http://fc.isima.fr/~saidi.
|
29 |
Transfert couplé d'électron et de proton dans des complexes de métaux de transition modèles et d'intérêts biomimétiques. Etudes mécanistiques par une approche électrochimique.Teillout, Anne-Lucie 25 September 2009 (has links) (PDF)
La performance des complexes biomimétiques utilisés comme catalyseurs pourrait résider dans le fait que, lorsqu'ils impliquent un transfert 1e-,1H+ (PCET) celui-ci ait lieu de manière concertée, évitant ainsi la formation d'intermédiaires coûteux en énergie. Par une approche expérimentale électrochimique, nous avons déterminé les paramètres gouvernant la compétition entre mécanismes séquentiel et concerté pour un PCET grâce à un composé modèle ([OsII(bpy)2py(H2O)](PF6)2). Pour ce faire, les mécanismes propres à chaque PCET présentés par le complexe d'osmium ont été identifiés : le transfert 1e-,1H+ associé au couple rédox OsII(H2O)/OsIII(OH) emprunte un mécanisme séquentiel alors que celui associé au couple rédox OsIII(OH)/OsII=O emprunte un mécanisme concerté. En comparant ces deux systèmes, nous avons pu déterminer les paramètres influençant le mécanisme concerté. Ainsi, un complexe « idéal » présentant un mécanisme concerté possède une sphère de coordination assez rigide afin d'avoir des constantes de vitesse standard élevée, un écart de ses constantes d'acidité important, une base géographiquement proche, doit être dans un environnement ne présentant pas d'anion pouvant s'associer plus fortement avec le complexe que la base et enfin répondre correctement aux critères de solubilité et stabilité chimique dans le milieu ciblé. L'étude d'un complexe de manganèse biomimétique de la superoxyde dismutase a permis d'appliquer la méthodologie mise en place lors de l'étude du complexe d'osmium et de confirmer les conclusions mises à jour par ce dernier: lorsque la concentration en espèce acceptrice de proton est importante, le processus concerté peut devenir prépondérant.
|
30 |
Processus de diffusion : aspects probabilistes et statistiquesMusiela, Marek 10 July 1984 (has links) (PDF)
Dans ce travail nous menons une étude probabiliste et statistique de processus de diffusion multidimensionnels. Dans une première partie, nous nous intéressons à des conditions nécessaires et suffisantes pour la convergence presque sûre ou la divergence presque sûre de certaines fonctionnelles intégrales de tels processus. Dans une deuxième partie nous étudions certains problèmes d'estimation de paramètres pour les diffusions
|
Page generated in 0.0404 seconds