• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 11
  • 3
  • Tagged with
  • 29
  • 29
  • 15
  • 15
  • 8
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Biomécanique de la coordination motrice : Modélisations et analyses en réponse à une perturbation interne ou externe.

Rao, Guillaume 17 November 2006 (has links) (PDF)
Ce travail doctoral poursuivait deux objectifs : D'une part, proposer une triple contribution méthodologique à l'analyse de la coordination motrice. Cette contribution consiste premièrement à analyser la sensibilité des résultats d'une procédure de dynamique inverse à la qualité des données d'entrée anthropométriques et à proposer une recommendation quant à la méthode d'estimation des BSP à utiliser pour déterminer au mieux les moments musculaires nets. Deuxièmement, une évolution d'un modèle biomécanique associant des données périphériques de différente nature (cinématique, anthropométrie, torseur dynamique externe, EMG) dans une procédure d'optimisation numérique et permettant d'estimer les moments développés par les groupes musculaires agoniste et antagoniste de l'articulation du genou est présentée. Les évolutions apportées visent à prendre en compte la baisse de capacit'e de production de force du groupe musculaire dûe à la fatigue en se basant sur une analyse fréquentielle du signal EMG réalisée par une transformée en ondelettes. Troisièmement, une méthode d'estimation des tensions musculaires est développée avec pour objectif une prédiction optimale de l'activité musculaire antagoniste. D'autre part, analyser la coordination musculaire lors d'une tâche de "squat" réalisée en présence d'une perturbation interne ou externe des conditions de réalisation de la tâche. L'ajout d'une charge supplémentaire modifiait les conditions externes de réalisation de la tâche tandis que la présence d'une fatigue musculaire représentait une perturbation interne. Les résultats de l'analyse de la coordination musculaire montrent une exploitation de la redondance musculaire orientée vers la stabilité de l'articulation et la production de mouvements coordonnés. De plus, la gestion de cette redondance en présence de fatigue diffère de celle observée lors de l'ajout d'une charge. Le Système Nerveux Central exploite donc différemment, mais toujours de manière optimale, la redondance musculaire pour faire face à une perturbation.
22

Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variables

Mourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
23

Méthodes primales-duales régularisées pour l'optimisation non linéaire avec contraintes / Regularized primal-dual methods for nonlinearly constrained optimization

Omheni, Riadh 14 November 2014 (has links)
Cette thèse s’inscrit dans le cadre de la conception, l’analyse et la mise en œuvre d’algorithmes efficaces et fiables pour la résolution de problèmes d’optimisation non linéaire avec contraintes. Nous présentons trois nouveaux algorithmes fortement primaux-duaux pour résoudre ces problèmes. La première caractéristique de ces algorithmes est que le contrôle des itérés s’effectue dans l’espace primal-dual tout au long du processus de la minimisation, d’où l’appellation “fortement primaux-duaux”. En particulier, la globalisation est effectuée par une méthode de recherche linéaire qui utilise une fonction de mérite primale-duale. La deuxième caractéristique est l’introduction d’une régularisation naturelle du système linéaire qui est résolu à chaque itération pour calculer une direction de descente. Ceci permet à nos algorithmes de bien se comporter pour résoudre les problèmes dégénérés pour lesquels la jacobienne des contraintes n’est pas de plein rang. La troisième caractéristique est que le paramètre de pénalisation est autorisé à augmenter au cours des itérations internes, alors qu’il est généralement maintenu constant. Cela permet de réduire le nombre d’itérations internes. Une étude théorique détaillée incluant l’analyse de convergence globale des itérations internes et externes, ainsi qu’une analyse asymptotique a été présentée pour chaque algorithme. En particulier, nous montrons qu’ils jouissent d’un taux de convergence rapide, superlinéaire ou quadratique. Ces algorithmes sont implémentés dans un nouveau solveur d’optimisation non linéaire qui est appelé SPDOPT. Les bonnes performances de ce solveur ont été montrées en effectuant des comparaisons avec les codes de références IPOPT, ALGENCAN et LANCELOT sur une large collection de problèmes. / This thesis focuses on the design, analysis, and implementation of efficient and reliable algorithms for solving nonlinearly constrained optimization problems. We present three new strongly primal-dual algorithms to solve such problems. The first feature of these algorithms is that the control of the iterates is done in both primal and dual spaces during the whole minimization process, hence the name “strongly primal-dual”. In particular, the globalization is performed by applying a backtracking line search algorithm based on a primal-dual merit function. The second feature is the introduction of a natural regularization of the linear system solved at each iteration to compute a descent direction. This allows our algorithms to perform well when solving degenerate problems for which the Jacobian of constraints is rank deficient. The third feature is that the penalty parameter is allowed to increase along the inner iterations, while it is usually kept constant. This allows to reduce the number of inner iterations. A detailed theoretical study including the global convergence analysis of both inner and outer iterations, as well as an asymptotic convergence analysis is presented for each algorithm. In particular, we prove that these methods have a high rate of convergence : superlinear or quadratic. These algorithms have been implemented in a new solver for nonlinear optimization which is called SPDOPT. The good practical performances of this solver have been demonstrated by comparing it to the reference codes IPOPT, ALGENCAN and LANCELOT on a large collection of test problems.
24

Quelques applications de l’optimisation numérique aux problèmes d’inférence et d’apprentissage / Few applications of numerical optimization in inference and learning

Kannan, Hariprasad 28 September 2018 (has links)
Les relaxations en problème d’optimisation linéaire jouent un rôle central en inférence du maximum a posteriori (map) dans les champs aléatoires de Markov discrets. Nous étudions ici les avantages offerts par les méthodes de Newton pour résoudre efficacement le problème dual (au sens de Lagrange) d’une reformulation lisse du problème. Nous comparons ces dernières aux méthodes de premier ordre, à la fois en terme de vitesse de convergence et de robustesse au mauvais conditionnement du problème. Nous exposons donc un cadre général pour l’apprentissage non-supervisé basé sur le transport optimal et les régularisations parcimonieuses. Nous exhibons notamment une approche prometteuse pour résoudre le problème de la préimage dans l’acp à noyau. Du point de vue de l’optimisation, nous décrivons le calcul du gradient d’une version lisse de la norme p de Schatten et comment cette dernière peut être utilisée dans un schéma de majoration-minimisation. / Numerical optimization and machine learning have had a fruitful relationship, from the perspective of both theory and application. In this thesis, we present an application oriented take on some inference and learning problems. Linear programming relaxations are central to maximum a posteriori (MAP) inference in discrete Markov Random Fields (MRFs). Especially, inference in higher-order MRFs presents challenges in terms of efficiency, scalability and solution quality. In this thesis, we study the benefit of using Newton methods to efficiently optimize the Lagrangian dual of a smooth version of the problem. We investigate their ability to achieve superior convergence behavior and to better handle the ill-conditioned nature of the formulation, as compared to first order methods. We show that it is indeed possible to obtain an efficient trust region Newton method, which uses the true Hessian, for a broad range of MAP inference problems. Given the specific opportunities and challenges in the MAP inference formulation, we present details concerning (i) efficient computation of the Hessian and Hessian-vector products, (ii) a strategy to damp the Newton step that aids efficient and correct optimization, (iii) steps to improve the efficiency of the conjugate gradient method through a truncation rule and a pre-conditioner. We also demonstrate through numerical experiments how a quasi-Newton method could be a good choice for MAP inference in large graphs. MAP inference based on a smooth formulation, could greatly benefit from efficient sum-product computation, which is required for computing the gradient and the Hessian. We show a way to perform sum-product computation for trees with sparse clique potentials. This result could be readily used by other algorithms, also. We show results demonstrating the usefulness of our approach using higher-order MRFs. Then, we discuss potential research topics regarding tightening the LP relaxation and parallel algorithms for MAP inference.Unsupervised learning is an important topic in machine learning and it could potentially help high dimensional problems like inference in graphical models. We show a general framework for unsupervised learning based on optimal transport and sparse regularization. Optimal transport presents interesting challenges from an optimization point of view with its simplex constraints on the rows and columns of the transport plan. We show one way to formulate efficient optimization problems inspired by optimal transport. This could be done by imposing only one set of the simplex constraints and by imposing structure on the transport plan through sparse regularization. We show how unsupervised learning algorithms like exemplar clustering, center based clustering and kernel PCA could fit into this framework based on different forms of regularization. We especially demonstrate a promising approach to address the pre-image problem in kernel PCA. Several methods have been proposed over the years, which generally assume certain types of kernels or have too many hyper-parameters or make restrictive approximations of the underlying geometry. We present a more general method, with only one hyper-parameter to tune and with some interesting geometric properties. From an optimization point of view, we show how to compute the gradient of a smooth version of the Schatten p-norm and how it can be used within a majorization-minimization scheme. Finally, we present results from our various experiments.
25

Globally convergent evolution strategies with application to Earth imaging problem in geophysics / Des stratégies évolutionnaires globalement convergentes avec une application en imagerie sismique pour la géophysique

Diouane, Youssef 17 October 2014 (has links)
Au cours des dernières années, s’est développé un intérêt tout particulier pour l’optimisation sans dérivée. Ce domaine de recherche se divise en deux catégories: une déterministe et l’autre stochastique. Bien qu’il s’agisse du même domaine, peu de liens ont déjà été établis entre ces deux branches. Cette thèse a pour objectif de combler cette lacune, en montrant comment les techniques issues de l’optimisation déterministe peuvent améliorer la performance des stratégies évolutionnaires, qui font partie des meilleures méthodes en optimisation stochastique. Sous certaines hypothèses, les modifications réalisées assurent une forme de convergence globale, c’est-à-dire une convergence vers un point stationnaire de premier ordre indépendamment du point de départ choisi. On propose ensuite d’adapter notre algorithme afin qu’il puisse traiter des problèmes avec des contraintes générales. On montrera également comment améliorer les performances numériques des stratégies évolutionnaires en incorporant un pas de recherche au début de chaque itération, dans laquelle on construira alors un modèle quadratique utilisant les points où la fonction coût a déjà été évaluée. Grâce aux récents progrès techniques dans le domaine du calcul parallèle, et à la nature parallélisable des stratégies évolutionnaires, on propose d’appliquer notre algorithme pour résoudre un problème inverse d’imagerie sismique. Les résultats obtenus ont permis d’améliorer la résolution de ce problème. / In recent years, there has been significant and growing interest in Derivative-Free Optimization (DFO). This field can be divided into two categories: deterministic and stochastic. Despite addressing the same problem domain, only few interactions between the two DFO categories were established in the existing literature. In this thesis, we attempt to bridge this gap by showing how ideas from deterministic DFO can improve the efficiency and the rigorousness of one of the most successful class of stochastic algorithms, known as Evolution Strategies (ES’s). We propose to equip a class of ES’s with known techniques from deterministic DFO. The modified ES’s achieve rigorously a form of global convergence under reasonable assumptions. By global convergence, we mean convergence to first-order stationary points independently of the starting point. The modified ES’s are extended to handle general constrained optimization problems. Furthermore, we show how to significantly improve the numerical performance of ES’s by incorporating a search step at the beginning of each iteration. In this step, we build a quadratic model using the points where the objective function has been previously evaluated. Motivated by the recent growth of high performance computing resources and the parallel nature of ES’s, an application of our modified ES’s to Earth imaging Geophysics problem is proposed. The obtained results provide a great improvement for the problem resolution.
26

Conception optimale de circuits magnétiques dédiés à la propulsion spatiale électrique par des méthodes d'optimisation topologique / Optimal design of magnetic circuits dedicated to spatial electric propulsion by topology optimization methods

Sanogo, Satafa 01 February 2016 (has links)
Dans ces travaux, nous présentons des méthodes d'optimisation théoriques et numériques pour la conception optimale de circuits magnétiques pour propulseurs à effet Hall. Ces problèmes de conception sont des problèmes inverses très difficiles à résoudre que nous formulons sous forme de problèmes d'optimisation topologique. Les problèmes resultant sont non convexes avec des contraintes aux équations différentielles de Maxwell. Au cours de ces travaux, des approches originales ont été proposées afin de résoudre efficacement ces problèmes d'optimisation topologique. L'approche de densité de matériaux SIMP (Solid Isotropic Material with Penalization) qui est une variante de la méthode d'homogénéisation a été privilégiées. De plus, les travaux de ma thèse ont permis la mise en place de codes d'optimisation dénommé ATOP (Algorithm To Optimize Propulsion) utilisant en parallèle les logiciels de calculs scientifiques Matlab et d'élément finis FEMM (Finite Element Method Magnetics). Dans ATOP, nous utilisant à la fois des algorithmes d'optimisation locale de type descente basés sur une analyse de la sensibilité du problème et des algorithmes d'optimisation globale principalement de type Branch and Bound basés sur l'Arithmétique des Intervals. ATOP permettra d'optimiser à la fois la forme topologique des circuits magnétiques mais aussi le temps et le coût de production de nouvelles génération de propulseurs électriques. / In this work, we present theoretical and numerical optimization method for designing magnetic circuits for Hall effect thrusters. These design problems are very difficult inverse ones that we formulate under the form of topology optimization problems. Then, the obtained problems are non convex subject to Maxwell equations like constraints. Some original approaches have been proposed to solve efficiently these topology optimization problems. These approaches are based on the material density model called SIMP approach (Solid Isotropic Material with Penalization) which is a variante of the homogenization method. The results in my thesis allowed to provide optimization source code named ATOP (Algorithm To Optimize Propulsion) unsung in parallel two scientific computing softwares namely Matlab and FEMM (Finite Element Method Magnetics). In ATOP, we use both local optimization algorithms based on sensitivity analysis of the design problem; and global optimization algorithms mainly of type Branch and Bound based on Interval Arithmetic analysis. ATOP will help to optimize both the topological shape of the magnetic circuits and the time and cost of production (design process) of new generations of electrical thrusters.
27

Contribution à l'étude de la valorisation des rejets thermiques : étude et optimisation de moteurs Stirling / Contribution to the study of the recovery of wast heat : study and optimization of Stirling engines

Bert, Juliette 26 November 2012 (has links)
Plusieurs machines actuellement utilisées, moteurs à combustion interne en automobile ou centrales thermiques dans l’énergie, rejettent de grandes quantités de chaleur. Généralement cette chaleur est dissipée dans l’atmosphère et son énergie perdue. Nous nous sommes donc intéressés aux moteurs à apport de chaleur externe dont l’énergie primaire est de l’énergie thermique, et plus particulièrement aux moteurs Stirling. L’une de ses principales caractéristiques est d’utiliser de la chaleur produite extérieurement comme source d’énergie. Ceci lui permet d’être multi-carburant et même d’utiliser de l’énergie thermique naturelle.L’étude menée comporte deux parties. Tout d’abord un modèle numérique zéro dimension, trois zones en temps fini a été développé. Il prend en compte les échanges thermiques aux parois et les pertes de charge, mais ne préjuge ni des dimensions moteur, ni des conditions de fonctionnement. Ceci lui permet de rester flexible pour s’adapter à l’architecture spécifique du moteur à simuler. Ensuite nous avons réalisé des mesures expérimentales sur deux moteurs de taille et puissance différentes (quelques watts et 1 kW). Ces résultats ont permis de valider le modèle. Au final nous avons obtenu un modèle numérique traduisant l’influence de paramètres dimensionnels et fonctionnels sur la puissance du moteur Stirling.Un outil d’aide à la conception de moteur Stirling a été développé en ajoutant au modèle un algorithme d’optimisation. Il permet une ébauche des caractéristiques d’un moteur Stirling. En fonction de l’application souhaitée et des contraintes s’y appliquant, il agit sur les caractéristiques choisies par l’utilisateur pour maximiser les performances. / Several machines currently used, internal combustion engines for the car industry or thermal power plants in energy, exhaust a considerable amount of heat. Generally this heat is dispersed in the atmosphere and its energy lost. So we took a special interest in external heat engines which primary energy is heat energy, and more particularly in Stirling engines. One of its main characteristics is the used of energy from heat produced externally like energy source. This allows Stirling engines to be multi-fuel and even to use natural heat energy.The study carried out is made up of two parts. First, a three zones zero dimensional finite-time thermodynamic model has been developed. It takes into account the heat transfer from the walls and the pressure drop, but does not prejudge the dimensions of the engine nor the conditions of its functioning. It is thus able to remain flexible and to adjust to the specific architecture of the engine that should be simulated. Afterwards, we have realized a series of experimental measures thanks to two engines different in size and power (a few Watt and 1 kW). These results allowed us to validate the model. In the end, we got a numerical model representing the influence of dimensional and functional parameters on the power of a Stirling engine.Eventually, a tool to assist in designing Stirling engines was developed adding an optimization algorithm to the model. It allows to sketch out a preliminary draft of the characteristics of a Stirling engine. Depending on the desired application and on the constraints exerted on the engine, the tool created will act on the characteristics of the engine chosen by the user to maximize its performances.
28

Utilisation des modèles dynamiques pour l'optimisation des traitements des patients infectés par le VIH / Use of dynamical models for treatment optimization in HIV infected patients

Prague, Melanie 15 November 2013 (has links)
La plupart des patients infectés par le VIH ont une charge virale qui peut être rendue indétectable par des combinaisons antirétrovirales hautement actives (cART); cependant, il existe des effets secondaires aux traitements. L'utilisation des modèles mécanistes dynamiques basés sur des équations différentielles ordinaires (ODE) a considérablement amélioré les connaissances de la dynamique HIV-système immunitaire et permet d'envisager une personnalisation du traitement. L'objectif de ces travaux de thèse est d'améliorer les techniques statistiques d'estimation de paramètres dans les modèles mécanistes dynamiques afin de proposer des stratégies de surveillance et d'optimisation des traitements. Après avoir introduit NIMROD un algorithme d'estimation bayésienne basé sur une maximisation de la vraisemblance pénalisée, nous montrons la puissance des approches mécanistes dynamiques pour l'évaluation des effets traitements par rapport aux méthodes descriptives d'analyse des trajectoires des biomarqueurs. Puis, nous définissons le « modèle à cellules cibles », un système ODE décrivant la dynamique du VIH et des CD4. Nous montrons qu'il possède de bonnes capacités prédictives. Nous proposons une preuve de concept de la possibilité de contrôler individuellement la dose de traitement. Cette stratégie adaptative réajuste la dose du patient en fonction de sa réaction à la dose précédente par une procédure bayésienne. Pour finir, nous introduisons la possibilité de l’'individualisation des changements de cART. Ce travail passe par la quantification in vivo d'effets de cART en utilisant des indicateurs d'activité antivirale in vitro. Nous discutons la validité des résultats et les étapes méthodologiques nécessaires pour l'intégration de ces méthodes dans les pratiques cliniques. / Most HIV-infected patients viral loads can be made undetectable by highly active combination of antiretroviral therapy (cART), but there are side effects of treatments. The use of dynamic mechanistic models based on ordinary differential equations (ODE) has greatly improved the knowledge of the dynamics of HIV and of the immune system and can be considered for personalization of treatment. The aim of these PhD works is to improve the statistical techniques for estimating parameters in dynamic mechanistic models so as to elaborate strategies for monitoring and optimizing treatments. We present an algorithm and program called NIMROD using Bayesian inference based on the maximization of the penalized likelihood. Then, we show the power of dynamic mechanistic approaches for the evaluation of treatment effects compared to methods based on the descriptive analysis of the biomarkers trajectories. Next, we build the “target cells model “, an ODE system of the dynamics between the HIV and CD4. We demonstrate it has good predictive capabilities. We build a proof of concept for drug dose individualization. It consists in tuning the dose of the patient based on his reaction to the previous doses using a Bayesian update procedure. Finally, we introduce the possibility of designing an individualized change of cART. This work involves the quantification of in vivo effects of cART using in vitro antiviral activity indicators. We discuss the validity of the results and the further steps needed for the integration of these methods in clinical practice.
29

Optimal Design of Modular High Performance Brushless Wound Rotor Synchronous Machine for embedded systems / Conception optimale d'un moteur synchrone à rotor bobiné modulaire à hautes performances pour une application embarquée

Le Luong, Huong Thao 18 October 2018 (has links)
Cette thèse est dédiée à la conception optimale de la machine synchrone à rotor bobiné modulaire sans balais pour les systèmes embarqués. Cette machine est basée sur une structure POKIPOKITM développée par Mitsubishi Electric Coopération avec les convertisseurs de puissance intégrée pour augmenter la capacité de tolérance aux défauts. L'analyse électromagnétique est utilisée pour étudier les différentes machines synchrones à rotor bobiné et donc, pour sélectionner la structure qui offre la meilleure tolérance aux défauts et les performances les plus élevées. D’abord, le choix des nombres de phases, d’encoches et de pôles est un point critique. Ensuite, quelques machines sont analysées et comparées selon les critères tels que la densité de couple, le rendement, l'ondulation de couple. La machine avec 7 phases, 7 encoches et 6 pôles est alors choisie. Cette machine est ensuite comparée à la machine synchrone à aimant permanent monté en surface. Le résultat démontre que la machine synchrone à rotor bobiné modulaire sans balais possède le potentiel de remplacer la machine synchrone à aimant permanent dans notre application parce qu’elle présente des performances similaires avec une capacité de tolérance aux défauts élevée. Dans un second temps, une fois la structure 7phases/7encoches/6pôles choisie, cette machine est optimisée en utilisant NOMAD (qui est un logiciel d'optimisation de boîte noire) afin de minimiser le volume externe sous les contraintes électromagnétiques, thermiques et mécaniques. Comme ce problème d'optimisation est extrêmement difficile à résoudre, quelques relaxations ont été effectuées pour tester les différents algorithmes d'optimisation : fmincon (de Matlab) et NOMAD. Nous remarquons que NOMAD est plus efficace que fmincon pour trouver des solutions à ce problème de conception où certaines contraintes sont calculées par des simulations numériques (ANSYS Maxwell ; code éléments finis). En utilisant la méthode NOMAD basée sur l’algorithme Mesh Adaptive Direct Search, nous obtenons des résultats optimaux qui satisfont toutes les contraintes proposées. Il est nécessaire de valider ce design optimisé en vérifiant toutes les contraintes par des simulations électromagnétiques et thermiques en 3D. Les résultats montrent que le couple moyen obtenu par la simulation en 3D est inférieur à la valeur souhaitée. Par conséquent, en augmentant la longueur de la machine, une nouvelle machine corrigée est ainsi obtenue. Nous observons que les pertes de fer obtenues en 3D sont plus élevées qu'en 2D en raison du flux de fuite dans la tête de bobinage. En prenant les valeurs des pertes analysées par la simulation en 3D, la température de surface de la nouvelle machine analysée par la méthode Computational Fluid Dynamics est plus élevée que celle calculée dans l’optimisation. Enfin, un prototype de machine est construit et quelques tests expérimentaux est réalisés. Le résultat montre que la force électromotrice à vide a une forme d'onde similaire par rapport à la prédiction numérique en 3D et la différence de couple statique maximum entre les tests expérimentaux et les simulations par éléments finis en 3D est faible. / This thesis is dedicated to the design and the optimization of modular brushless wound rotor synchronous machine for embedded systems. This machine is constructed based on POKIPOKITM structure with integrated drive electronics. Finite element analysis based optimization becomes more popular in the field of electrical machine design because analytical equations are not easily formalized for the machines which have complicate structures. Using electromagnetic analysis to comparatively study different modular brushless wound rotor synchronous machines and therefore, to select the structure which offers the best fault tolerant capability and the highest output performances. Firstly, the fundamental winding factor calculated by using the method based on voltage phasors is considered as a significant criterion in order to select the numbers of phases, stator slots and poles. After that, 2D finite element numerical simulations are carried out for a set of 15 machines to analyze their performances. The simulation results are then compared to find an appropriate machine according to torque density, torque ripple and machine efficiency. The 7phase/7-slot/6-pole machine is chosen and compared with a reference design surfacemounted permanent magnet synchronous machine in order to evaluate the interesting performance features of the wound rotor synchronous machine. In the second design stage, this machine is optimized by using derivative-free optimization. The objective is to minimize external volume under electromagnetic, thermal and mechanical constraints. Given that an accurate finite element analysis for machine performance takes a long time. Moreover, considering that the average torque can be obtained by simulating the model with only four rotor positions instead of one electric period, optimization strategy is proposed to reduce computational time and therefore, obtain a fast convergence ability by defining relaxed problems which enable minimizing the external volume of the machine under only several constraints such as average torque, torque ripple and copper losses. By testing relaxed problems, two different optimization methods (NOMAD and fmincon) are compared in order to select an appropriate method for our optimization problem. Using NOMAD method based on Mesh Adaptive Direct Search, we achieve optimal results which satisfy all of the constraints proposed. In the third design stage, all constraints are validated by 3D electromagnetic and thermal simulations using finite element and computational fluid dynamics methods. The 3D results show that the average torque obtained is lower than the desired value. By increasing the length of the machine, a new corrected machine is thus obtained. It can be observed that the iron losses obtained in 3D are higher than that in 2D due to the leakage flux in the end-winding. Then, the machine temperature is analyzed by using ANSYS Fluent. Note that the surface temperature is higher than that calculated in the optimization and the coil temperature is 8.48°C higher than the desired value (105°C). However, some dissipation by the shaft and the bearings of the machine are expected to reduce the machine temperature. Finally, a machine prototype is built and some experimental tests are carried out. The results show that the electromotive force has a similar waveform compared to 3D prediction and the difference of the measured and predicted maximum static torques is small.

Page generated in 0.1326 seconds