• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 12
  • 6
  • Tagged with
  • 67
  • 67
  • 24
  • 23
  • 22
  • 21
  • 18
  • 17
  • 17
  • 15
  • 13
  • 11
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Régression bayésienne sous contraintes de régularité et de forme. / Bayesian regression under shape and smoothness restriction.

Khadraoui, Khader 08 December 2011 (has links)
Nous étudions la régression bayésienne sous contraintes de régularité et de forme. Pour cela,on considère une base de B-spline pour obtenir une courbe lisse et nous démontrons que la forme d'une spline engendrée par une base de B-spline est contrôlée par un ensemble de points de contrôle qui ne sont pas situés sur la courbe de la spline. On propose différents types de contraintes de forme (monotonie, unimodalité, convexité, etc). Ces contraintes sont prises en compte grâce à la loi a priori. L'inférence bayésienne a permis de dériver la distribution posteriori sous forme explicite à une constante près. En utilisant un algorithme hybride de type Metropolis-Hastings avec une étape de Gibbs, on propose des simulations suivant la distribution a posteriori tronquée. Nous estimons la fonction de régression par le mode a posteriori. Un algorithme de type recuit simulé a permis de calculer le mode a posteriori. La convergence des algorithmes de simulations et du calcul de l'estimateur est prouvée. En particulier, quand les noeuds des B-splines sont variables, l'analyse bayésienne de la régression sous contrainte devient complexe. On propose des schémas de simulations originaux permettant de générer suivant la loi a posteriori lorsque la densité tronquée des coefficients de régression prend des dimensions variables. / We investigate the Bayesian regression under shape and smoothness constraints. We first elicita Bayesian method for regression under shape restrictions and smoothness conditions. Theregression function is built from B-spline basis that controls its regularity. Then we show thatits shape can be controlled simply from its coefficients in the B-spline basis. This is achievedthrough the control polygon whose definition and some properties are given in this article.The regression function is estimated by the posterior mode. This mode is calculated by asimulated annealing algorithm which allows to take into account the constraints of form inthe proposal distribution. A credible interval is obtained from simulations using Metropolis-Hastings algorithm with the same proposal distribution as the simulated annealing algorithm.The convergence of algorithms for simulations and calculation of the estimator is proved. Inparticular, in the case of Bayesian regression under constraints and with free knots, Bayesiananalysis becomes complex. we propose original simulation schemes which allows to simulatefrom the truncated posterior distribution with free dimension.
52

Optimizing vertical farming : control and scheduling algorithms for enhanced plant growth

Vu, Cong Vinh 10 1900 (has links)
L’agriculture verticale permet de contrôler presque totalement les conditions pour croître des plantes, qu’il s’agisse des conditions météorologiques, des nutriments nécessaires à la croissance des plantes ou même de la lutte contre les parasites. Il est donc possible de trouver et de définir des paramètres susceptibles d’augmenter le rendement et la qualité des récoltes et de minimiser la consommation d’énergie dans la mesure du possible. À cette fin, ce mémoire présente des algorithmes d’optimisation tels qu’une version améliorée du recuit simulé qui peut être utilisée pour trouver et donner des lignes directrices pour les paramètres de l’agriculture verticale. Nous présentons égalementune contribution sur la façon dont les algorithmes de contrôle, p. ex. l’apprentissage par renforcement profond avec les méthodes critiques d’acteurs, peuvent être améliorés grâce à une exploration plus efficace en prenant en compte de l’incertitude épistémique lors de la sélection des actions. cette contribution peut profiter aux systèmes de contrôle conçus pour l’agriculture verticale. Nous montrons que notre travail est capable de surpasser certains algorithmes utilisés pour l’optimisation et le contrôle continu. / Vertical farming provides a way to have almost total control over agriculture, whether it be controlling weather conditions, nutrients necessary for plant growth, or even pest control. As such, it is possible to find and set parameters that can increase crop yield, and quality, and minimize energy consumption where possible. To that end, this thesis presents optimization algorithms such as an enhanced version of Simulated Annealing that can be used to find and give guidelines for those parameters. We also present work on how real-time control algorithms such as Actor-Critic methods can be made to perform better through more efficient exploration by taking into account epistemic uncertainty during action selection which can also benefit control systems made for vertical farming. We show that our work is able to outperform some algorithms used for optimization and continuous control.
53

Étude fonctionnelle du cotransporteur Na+/glucose (hSGLT1) : courant de fuite, vitesse de cotransport et modélisation cinétique

Longpré, Jean-Philippe 05 1900 (has links)
Les résultats présentés dans cette thèse précisent certains aspects de la fonction du cotransporteur Na+/glucose (SGLT1), une protéine transmembranaire qui utilise le gradient électrochimique favorable des ions Na+ afin d’accumuler le glucose à l’intérieur des cellules épithéliales de l’intestin grêle et du rein. Nous avons tout d’abord utilisé l’électrophysiologie à deux microélectrodes sur des ovocytes de xénope afin d’identifier les ions qui constituaient le courant de fuite de SGLT1, un courant mesuré en absence de glucose qui est découplé de la stoechiométrie stricte de 2 Na+/1 glucose caractérisant le cotransport. Nos résultats ont démontré que des cations comme le Li+, le K+ et le Cs+, qui n’interagissent que faiblement avec les sites de liaison de SGLT1 et ne permettent pas les conformations engendrées par la liaison du Na+, pouvaient néanmoins générer un courant de fuite d’amplitude comparable à celui mesuré en présence de Na+. Ceci suggère que le courant de fuite traverse SGLT1 en utilisant une voie de perméation différente de celle définie par les changements de conformation propres au cotransport Na+/glucose, possiblement similaire à celle empruntée par la perméabilité à l’eau passive. Dans un deuxième temps, nous avons cherché à estimer la vitesse des cycles de cotransport de SGLT1 à l’aide de la technique de la trappe ionique, selon laquelle le large bout d’une électrode sélective (~100 μm) est pressé contre la membrane plasmique d’un ovocyte et circonscrit ainsi un petit volume de solution extracellulaire que l’on nomme la trappe. Les variations de concentration ionique se produisant dans la trappe en conséquence de l’activité de SGLT1 nous ont permis de déduire que le cotransport Na+/glucose s’effectuait à un rythme d’environ 13 s-1 lorsque le potentiel membranaire était fixé à -155 mV. Suite à cela, nous nous sommes intéressés au développement d’un modèle cinétique de SGLT1. En se servant de l’algorithme du recuit simulé, nous avons construit un schéma cinétique à 7 états reproduisant de façon précise les courants du cotransporteur en fonction du Na+ et du glucose extracellulaire. Notre modèle prédit qu’en présence d’une concentration saturante de glucose, la réorientation dans la membrane de SGLT1 suivant le relâchement intracellulaire de ses substrats est l’étape qui limite la vitesse de cotransport. / The results presented in this thesis clarify certain functional aspects of the Na+/glucose cotransporter (SGLT1), a membrane protein which uses the downhill electrochemical gradient of Na+ ions to drive the accumulation of glucose in epithelial cells of the small intestine and the kidney. We first used two microelectrodes electrophysiology on Xenopus oocytes to indentify the ionic species mediating the leak current of SGLT1, a current measured in the absence of glucose that is uncoupled from the strict 2 Na+/1 glucose stoichiometry characterising cotransport. Our results showed that cations such as Li+, K+ and Cs+, which interact weakly with SGLT1 binding sites and are unable to generate the conformational changes that are triggered by Na+ binding, were however able to generate leak currents similar in amplitude to the one measured in the presence of Na+. This suggests that the leak current permeating through SGLT1 does so using a pathway that differs from the conformational changes associated with Na+/glucose cotransport. Moreover, it was found that the cationic leak and the passive water permeability could share a common pathway. We then sought to estimate the turnover rate of SGLT1 using the ion-trap technique, where a large tip ion-selective electrode (~100 μm) is pushed against the oocyte plasma membrane, thus enclosing a small volume of extracellular solution referred to as the trap. The variations in ionic concentration occurring in the trap as a consequence of SGLT1 activity made it possible to assess that the turnover rate of Na+/glucose cotransport was 13 s-1 when the membrane potential was clamped to -155 mV. As a last project, we focused our interest on the development of a kinetic model for SGLT1. Taking advantage of the simulated annealing algorithm, we constructed a 7-state kinetic scheme whose predictions accurately reproduced the currents of the cotransporter as a function of extracellular Na+ and glucose. According to our model, the rate limiting step of cotransport under a saturating glucose concentration is the reorientation of the empty carrier that follows the intracellular release of substrates.
54

Élaboration d'une méthode tomographique de reconstruction 3D en vélocimétrie par image de particules basée sur les processus ponctuels marqués / Elaboration of 3D reconstruction tomographic method in particle image velocimetry based on marked point Process

Ben Salah, Riadh 03 September 2015 (has links)
Les travaux réalisés dans cette thèse s'inscrivent dans le cadre du développement de techniques de mesure optiques pour la mécanique des fluides visant la reconstruction de volumes de particules 3D pour ensuite en déduire leurs déplacements. Cette technique de mesure volumique appelée encore Tomo-PIV est apparue en 2006 et a fait l'objet d'une multitude de travaux ayant pour objectif l'amélioration de la reconstruction qui représente l'une des principales étapes de cette technique de mesure. Les méthodes proposées en littérature ne prennent pas forcément en compte la forme particulière des objets à reconstruire et ne sont pas suffisamment robustes pour faire face au bruit présent dans les images. Pour pallier à ce déficit, nous avons proposé une méthode de reconstruction tomographique, appelée (IOD-PVRMPP), qui se base sur les processus ponctuels marqués. Notre méthode permet de résoudre le problème de manière parcimonieuse. Elle facilite l'introduction de l'information à priori et résout les problèmes de mémoire liés aux approches dites "basées voxels". La reconstruction d'un ensemble de particules 3D est obtenue en minimisant une fonction d'énergie ce qui définit le processus ponctuel marqué. A cet effet, nous utilisons un algorithme de recuit simulé basé sur les méthodes de Monte-Carlo par Chaines de Markov à Saut Réversible (RJMCMC). Afin d'accélérer la convergence du recuit simulé, nous avons développé une méthode d'initialisation permettant de fournir une distribution initiale de particules 3D base sur la détection des particules 2D localisées dans les images de projections. Enfin cette méthode est appliquée à des écoulements fluides soit simulé, soit issu d'une expérience dans un canal turbulent à surface libre. L'analyse des résultats et la comparaison de cette méthode avec les méthodes classiques montrent tout l'intérêt de ces approches parcimonieuses. / The research work fulfilled in this thesis fit within the development of optical measurement techniques for fluid mechanics. They are particularly related to 3D particle volume reconstruction in order to infer their movement. This volumetric measurement technic, called Tomo-PIV has appeared on 2006 and has been the subject of several works to enhance the reconstruction, which represents one of the most important steps of this measurement technique. The proposed methods in Literature don't necessarily take into account the particular form of objects to reconstruct and they are not sufficiently robust to deal with noisy images. To deal with these challenges, we propose a tomographic reconstruction method, called (IOD-PVRMPP), and based on marked point processes. Our method allows solving the problem in a parsimonious way. It facilitates the introduction of prior knowledge and solves memory problem, which is inherent to voxel-based approaches. The reconstruction of a 3D particle set is obtained by minimizing an energy function, which defines the marked point process. To this aim, we use a simulated annealing algorithm based on Reversible Jump Markov Chain Monte Carlo (RJMCMC) method. To speed up the convergence of the simulated annealing, we develop an initialization method, which provides the initial distribution of 3D particles based on the detection of 2D particles located in projection images. Finally, this method is applied to simulated fluid flow or real one produced in an open channel flow behind a turbulent grid. The results and the comparisons of this method with classical ones show the great interest of this parsimonious approach.
55

Metaheuristic based peer rewiring for semantic overlay networks / Métaheuristique pour la configuration dynamique de réseaux pair-à-pair dans le context des réseaux logiques sémantiques

Yang, Yulian 28 March 2014 (has links)
Nous considérons une plate-forme pair-à-pair pour la Recherche d'Information (RI) collaborative. Chaque pair héberge une collection de documents textuels qui traitent de ses sujets d'intérêt. En l'absence d'un mécanisme d'indexation global, les pairs indexent localement leurs documents et s'associent pour fournir un service distribué de réponse à des requêtes. Notre objectif est de concevoir un protocole décentralisé qui permette aux pairs de collaborer afin de transmettre une requête depuis son émetteur jusqu'aux pairs en possession de documents pertinents. Les réseaux logiques sémantiques (Semantic Overlay Networks, SON) représentent la solution de référence de l'état de l'art. Les pairs qui possèdent des ressources sémantiques similaires sont regroupés en clusters. Les opérations de RI seront alors efficaces puisqu'une requête sera transmise aux clusters de pairs qui hébergent les ressources pertinentes. La plupart des approches actuelles consistent en une reconfiguration dynamique du réseau de pairs (peer rewiring). Pour ce faire, chaque pair exécute périodiquement un algorithme de marche aléatoire ou gloutonne sur le réseau pair-à-pair afin de renouveler les pairs de son cluster. Ainsi, un réseau à la structure initialement aléatoire évolue progressivement vers un réseau logique sémantique. Jusqu'à présent, les approches existantes n'ont pas considéré que l'évolution de la topologie du réseau puisse influer sur les performances de l'algorithme de reconfiguration dynamique du réseau. Cependant, s'il est vrai que, pour une configuration initiale aléatoire des pairs, une marche aléatoire sera efficace pour découvrir les pairs similaires, lorsque des clusters commencent à émerger une approche gloutonne devient alors mieux adaptée. Ainsi, nous proposons une stratégie qui applique un algorithme de recuit simulé (Simulated Annealing, SA) afin de faire évoluer une stratégie de marche aléatoire vers une stratégie gloutonne lors de la construction du SON. Cette thèse contient plusieurs avancées concernant l'état de l'art dans ce domaine. D'abbord, nous modélisions formellement la reconfiguration dynamique d'un réseau en un SON. Nous identifions un schéma générique pour la reconfiguration d'un réseau pair-à-pair, et après le formalisons en une procédure constituée de trois étapes. Ce framework cohérent offre à ses utilisateurs de quoi le paramétrer. Ensuite, le problème de la construction d'un SON est modélisé sous la forme d'un problème d'optimisation combinatoire pour lequel les opérations de reconfiguration du réseau correspondent à la recherche décentralisée d'une solution locale. Fondée sur ce modèle, une solution concrète à base de recuit simulé est proposée. Nous menons une étude expérimentale poussée sur la construction du SON et la RI sur SONs, et validions notre approche. / A Peer-to-Peer (P2P) platform is considered for collaborative Information Retrieval (IR). Each peer hosts a collection of text documents with subjects related to its owner's interests. Without a global indexing mechanism, peers locally index their documents, and provide the service to answer queries. A decentralized protocol is designed, enabling the peers to collaboratively forward queries from the initiator to the peers with relevant documents. Semantic Overlay Network (SONs) is one the state of the art solutions, where peers with semantically similar resources are clustered. IR is efficiently performed by forwarding queries to the relevant peer clusters in an informed way. SONs are built and maintained mainly via peer rewiring. Specifically, each peer periodically sends walkers to its neighborhood. The walkers walk along peer connections, aiming at discovering more similar peers to replace less similar neighbors of its initiator. The P2P network then gradually evolves from a random overlay network to a SON. Random and greedy walk can be applied individually or integrated in peer rewiring as a constant strategy during the progress of network evolution. However, the evolution of the network topology may affect their performance. For example, when peers are randomly connected with each other, random walk performs better than greedy walk for exploring similar peers. But as peer clusters gradually emerge in the network, a walker can explore more similar peers by following a greedy strategy. This thesis proposes an evolving walking strategy based on Simulated Annealing (SA), which evolves from a random walk to a greedy walk along the progress of network evolution. According to the simulation results, SA-based strategy outperforms current approaches, both in the efficiency to build a SON and the effectiveness of the subsequent IR. This thesis contains several advancements with respect to the state of the art in this field. First of all, we identify a generic peer rewiring pattern and formalize it as a three-step procedure. Our technique provides a consistent framework for peer rewiring, while allowing enough flexibility for the users/designers to specify its properties. Secondly, we formalize SON construction as a combinatorial optimization problem, with peer rewiring as its decentralized local search solution. Based on this model, we propose a novel SA-based approach to peer rewiring. Our approach is validated via an extensive experimental study on the effect of network wiring on (1) SON building and (2) IR in SONs.
56

Plans prédictifs à taille fixe et séquentiels pour le krigeage / Fixed-size and sequential designs for kriging

Abtini, Mona 30 August 2018 (has links)
La simulation numérique est devenue une alternative à l’expérimentation réelle pour étudier des phénomènes physiques. Cependant, les phénomènes complexes requièrent en général un nombre important de simulations, chaque simulation étant très coûteuse en temps de calcul. Une approche basée sur la théorie des plans d’expériences est souvent utilisée en vue de réduire ce coût de calcul. Elle consiste à partir d’un nombre réduit de simulations, organisées selon un plan d’expériences numériques, à construire un modèle d’approximation souvent appelé métamodèle, alors beaucoup plus rapide à évaluer que le code lui-même. Traditionnellement, les plans utilisés sont des plans de type Space-Filling Design (SFD). La première partie de la thèse concerne la construction de plans d’expériences SFD à taille fixe adaptés à l’identification d’un modèle de krigeage car le krigeage est un des métamodèles les plus populaires. Nous étudions l’impact de la contrainte Hypercube Latin (qui est le type de plans les plus utilisés en pratique avec le modèle de krigeage) sur des plans maximin-optimaux. Nous montrons que cette contrainte largement utilisée en pratique est bénéfique quand le nombre de points est peu élevé car elle atténue les défauts de la configuration maximin-optimal (majorité des points du plan aux bords du domaine). Un critère d’uniformité appelé discrépance radiale est proposé dans le but d’étudier l’uniformité des points selon leur position par rapport aux bords du domaine. Ensuite, nous introduisons un proxy pour le plan minimax-optimal qui est le plan le plus proche du plan IMSE (plan adapté à la prédiction par krigeage) et qui est coûteux en temps de calcul, ce proxy est basé sur les plans maximin-optimaux. Enfin, nous présentons une procédure bien réglée de l’optimisation par recuit simulé pour trouver les plans maximin-optimaux. Il s’agit ici de réduire au plus la probabilité de tomber dans un optimum local. La deuxième partie de la thèse porte sur un problème légèrement différent. Si un plan est construit de sorte à être SFD pour N points, il n’y a aucune garantie qu’un sous-plan à n points (n 6 N) soit SFD. Or en pratique le plan peut être arrêté avant sa réalisation complète. La deuxième partie est donc dédiée au développement de méthodes de planification séquentielle pour bâtir un ensemble d’expériences de type SFD pour tout n compris entre 1 et N qui soient toutes adaptées à la prédiction par krigeage. Nous proposons une méthode pour générer des plans séquentiellement ou encore emboités (l’un est inclus dans l’autre) basée sur des critères d’information, notamment le critère d’Information Mutuelle qui mesure la réduction de l’incertitude de la prédiction en tout point du domaine entre avant et après l’observation de la réponse aux points du plan. Cette approche assure la qualité des plans obtenus pour toutes les valeurs de n, 1 6 n 6 N. La difficulté est le calcul du critère et notamment la génération de plans en grande dimension. Pour pallier ce problème une solution a été présentée. Cette solution propose une implémentation astucieuse de la méthode basée sur le découpage par blocs des matrices de covariances ce qui la rend numériquement efficace. / In recent years, computer simulation models are increasingly used to study complex phenomena. Such problems usually rely on very large sophisticated simulation codes that are very expensive in computing time. The exploitation of these codes becomes a problem, especially when the objective requires a significant number of evaluations of the code. In practice, the code is replaced by global approximation models, often called metamodels, most commonly a Gaussian Process (kriging) adjusted to a design of experiments, i.e. on observations of the model output obtained on a small number of simulations. Space-Filling-Designs which have the design points evenly spread over the entire feasible input region, are the most used designs. This thesis consists of two parts. The main focus of both parts is on construction of designs of experiments that are adapted to kriging, which is one of the most popular metamodels. Part I considers the construction of space-fillingdesigns of fixed size which are adapted to kriging prediction. This part was started by studying the effect of Latin Hypercube constraint (the most used design in practice with the kriging) on maximin-optimal designs. This study shows that when the design has a small number of points, the addition of the Latin Hypercube constraint will be useful because it mitigates the drawbacks of maximin-optimal configurations (the position of the majority of points at the boundary of the input space). Following this study, an uniformity criterion called Radial discrepancy has been proposed in order to measure the uniformity of the points of the design according to their distance to the boundary of the input space. Then we show that the minimax-optimal design is the closest design to IMSE design (design which is adapted to prediction by kriging) but is also very difficult to evaluate. We then introduce a proxy for the minimax-optimal design based on the maximin-optimal design. Finally, we present an optimised implementation of the simulated annealing algorithm in order to find maximin-optimal designs. Our aim here is to minimize the probability of falling in a local minimum configuration of the simulated annealing. The second part of the thesis concerns a slightly different problem. If XN is space-filling-design of N points, there is no guarantee that any n points of XN (1 6 n 6 N) constitute a space-filling-design. In practice, however, we may have to stop the simulations before the full realization of design. The aim of this part is therefore to propose a new methodology to construct sequential of space-filling-designs (nested designs) of experiments Xn for any n between 1 and N that are all adapted to kriging prediction. We introduce a method to generate nested designs based on information criteria, particularly the Mutual Information criterion. This method ensures a good quality forall the designs generated, 1 6 n 6 N. A key difficulty of this method is that the time needed to generate a MI-sequential design in the highdimension case is very larg. To address this issue a particular implementation, which calculates the determinant of a given matrix by partitioning it into blocks. This implementation allows a significant reduction of the computational cost of MI-sequential designs, has been proposed.
57

Étude fonctionnelle du cotransporteur Na+/glucose (hSGLT1) : courant de fuite, vitesse de cotransport et modélisation cinétique

Longpré, Jean-Philippe 05 1900 (has links)
Les résultats présentés dans cette thèse précisent certains aspects de la fonction du cotransporteur Na+/glucose (SGLT1), une protéine transmembranaire qui utilise le gradient électrochimique favorable des ions Na+ afin d’accumuler le glucose à l’intérieur des cellules épithéliales de l’intestin grêle et du rein. Nous avons tout d’abord utilisé l’électrophysiologie à deux microélectrodes sur des ovocytes de xénope afin d’identifier les ions qui constituaient le courant de fuite de SGLT1, un courant mesuré en absence de glucose qui est découplé de la stoechiométrie stricte de 2 Na+/1 glucose caractérisant le cotransport. Nos résultats ont démontré que des cations comme le Li+, le K+ et le Cs+, qui n’interagissent que faiblement avec les sites de liaison de SGLT1 et ne permettent pas les conformations engendrées par la liaison du Na+, pouvaient néanmoins générer un courant de fuite d’amplitude comparable à celui mesuré en présence de Na+. Ceci suggère que le courant de fuite traverse SGLT1 en utilisant une voie de perméation différente de celle définie par les changements de conformation propres au cotransport Na+/glucose, possiblement similaire à celle empruntée par la perméabilité à l’eau passive. Dans un deuxième temps, nous avons cherché à estimer la vitesse des cycles de cotransport de SGLT1 à l’aide de la technique de la trappe ionique, selon laquelle le large bout d’une électrode sélective (~100 μm) est pressé contre la membrane plasmique d’un ovocyte et circonscrit ainsi un petit volume de solution extracellulaire que l’on nomme la trappe. Les variations de concentration ionique se produisant dans la trappe en conséquence de l’activité de SGLT1 nous ont permis de déduire que le cotransport Na+/glucose s’effectuait à un rythme d’environ 13 s-1 lorsque le potentiel membranaire était fixé à -155 mV. Suite à cela, nous nous sommes intéressés au développement d’un modèle cinétique de SGLT1. En se servant de l’algorithme du recuit simulé, nous avons construit un schéma cinétique à 7 états reproduisant de façon précise les courants du cotransporteur en fonction du Na+ et du glucose extracellulaire. Notre modèle prédit qu’en présence d’une concentration saturante de glucose, la réorientation dans la membrane de SGLT1 suivant le relâchement intracellulaire de ses substrats est l’étape qui limite la vitesse de cotransport. / The results presented in this thesis clarify certain functional aspects of the Na+/glucose cotransporter (SGLT1), a membrane protein which uses the downhill electrochemical gradient of Na+ ions to drive the accumulation of glucose in epithelial cells of the small intestine and the kidney. We first used two microelectrodes electrophysiology on Xenopus oocytes to indentify the ionic species mediating the leak current of SGLT1, a current measured in the absence of glucose that is uncoupled from the strict 2 Na+/1 glucose stoichiometry characterising cotransport. Our results showed that cations such as Li+, K+ and Cs+, which interact weakly with SGLT1 binding sites and are unable to generate the conformational changes that are triggered by Na+ binding, were however able to generate leak currents similar in amplitude to the one measured in the presence of Na+. This suggests that the leak current permeating through SGLT1 does so using a pathway that differs from the conformational changes associated with Na+/glucose cotransport. Moreover, it was found that the cationic leak and the passive water permeability could share a common pathway. We then sought to estimate the turnover rate of SGLT1 using the ion-trap technique, where a large tip ion-selective electrode (~100 μm) is pushed against the oocyte plasma membrane, thus enclosing a small volume of extracellular solution referred to as the trap. The variations in ionic concentration occurring in the trap as a consequence of SGLT1 activity made it possible to assess that the turnover rate of Na+/glucose cotransport was 13 s-1 when the membrane potential was clamped to -155 mV. As a last project, we focused our interest on the development of a kinetic model for SGLT1. Taking advantage of the simulated annealing algorithm, we constructed a 7-state kinetic scheme whose predictions accurately reproduced the currents of the cotransporter as a function of extracellular Na+ and glucose. According to our model, the rate limiting step of cotransport under a saturating glucose concentration is the reorientation of the empty carrier that follows the intracellular release of substrates.
58

Étude d'un problème d'optimisation en aéroélasticité avec incertitudes

Arnaud, Rémi 10 April 2014 (has links) (PDF)
La recherche en optimisation est un secteur crucial pour les constructeurs aéronautiques. La performance des appareils est un élément déterminant dans la compétition commerciale qui oppose les principaux manufacturiers du marché. L'incorporation de plus en plus massive des matériaux composites dans les avions de ligne dans les années 2000 illustre le désir des constructeurs de réduire la masse de leurs appareils pour en diminuer la consommation de kérozène. Parallèlement, la sécurité est devenue au fil des années une préoccupation majeure pour l'ensemble des acteurs. Cependant, l'emploi massif de matériaux composites, dont les propriétés physiques sont très intéressantes pour les constructeurs mais qui sont conçus avec une marge de tolérance pour des raisons de coût, induit des variations indésirables dans la structure, des incertitudes. Outre ces matériaux, d'autres éléments non prévisibles sont susceptibles de perturber la structure de l'appareil. Le modèle d'un avion en avant-projet est toujours amené à évoluer pour répondre aux évolutions des exigences du constructeur, mais des études de faisabilité doivent être menées avant que la structure ne soit totalement définie, afin de s'assurer de la viabilité du modèle. Des éléments non pris en compte dans la structure, comme les câbles, peuvent également avoir une influence non négligeable sur le comportement global de l'appareil. Ces incertitudes ont un impact non négligeable sur la stabilité de la structure en vol. Des études ont commencé à incorporer cet aspect incertain dans les processus d'optimisation, mais généralement en adaptant les algorithmes existants et sans exploiter la nature incertaine des problèmes. Afin de tenir compte de l'aspect incertain, on se propose de représenter ces incertitudes par des variables aléatoires et d'exploiter des outils théoriques développés dans d'autres domaines, notamment les outils des mathématiques financières.
59

Planification et ordonnancement de projet sous incertitudes : application à la maintenance d'hélicoptères

Masmoudi, Malek 22 November 2011 (has links) (PDF)
Cette thèse entre dans le cadre du projet Hélimaintenance ; un project labellisé par le pôle de compétitivité Français Aérospace-Valley, qui vise à construire un centre dédié à la maintenance des hélicoptères civils qui soit capable de lancer des travaux en R&D dans le domaine. Notre travail consiste à prendre en considération les incertitudes dans la planification et l'ordonnancement de projets et résoudre les problèmes Rough Cut Capacity Planning, Resource Leveling Problem et Resource Constraint Project Scheduling Problem sous incertitudes. L'incertitude est modélisée avec l'approche floue/possibiliste au lieu de l'approche stochastique ce qui est plus adéquat avec notre cas d'étude. Trois types de problèmes ont été définis dans cette étude à savoir le Fuzzy Rough Cut Capacity Problem (FRCCP), le Fuzzy Resource Leveling Problem (FRLP) et le Fuzzy Resource Constraint Project Scheduling Problem (RCPSP). Un Algorithme Génétique et un Algorithme "Parallel SGS" sont proposés pour résoudre respectivement le FRLP et le FRCPSP et un Recuit Simulé est proposé pour résoudre le problème FRCCP.
60

Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images / Contribution to the design of two-dimensional non-recursive filters using artificial intelligence techniques : application to image processing

Boudjelaba, Kamal 11 June 2014 (has links)
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application. / The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application.

Page generated in 0.0352 seconds