• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 20
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 76
  • 23
  • 14
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Fouille de dynamiques multivariées, application à des données temporelles en cardiologie.

Dumont, Jerome 09 October 2008 (has links) (PDF)
Ce mémoire s'intéresse à l'analyse de dynamiques de séries temporelles observées en cardiologie. La solution proposée se décompose en deux étapes. La première consiste à extraire l'information utile en segmentant chaque battement cardiaque à l'aide d'une décomposition en ondelettes, adaptée de la littérature. Le problème difficile de l'optimisation des seuils et des fenêtres temporelles est résolu à l'aide d'algorithmes évolutionnaires. La deuxième étape s'appuie sur les modèles Semi-Markovien Cachés pour représenter les séries temporelles composées de l'ensemble des variables extraites. Un algorithme de classification non-supervisée est proposé pour retrouver les groupements naturels. Appliquée à la détection des épisodes ischémiques et à l'analyse d'ECG d'efforts de patients atteints du syndrome de Brugada (pour la distinction des patients symptomatiques et asymptomatiques), la solution proposée montre des performances supérieures aux approches plus traditionnelles.
22

Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentiel

Gassiat, Paul 07 December 2011 (has links) (PDF)
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
23

Problèmes inverses dans les réseaux

Kauffmann, Bruno 24 March 2011 (has links) (PDF)
La croissance récente d'Internet lors deux dernières décennies a conduit à un besoin croissant de techniques permettant de mesurer la structure et la performance d'Internet. Les techniques de mesures de réseaux peuvent être classifiées en méthodes passives qui utilisent des données collectées au niveau des routeurs, et les méthodes actives, reposant sur l'injection active et l'observation de paquets-sondes. Les méthodes actives, qui sont la motivation principale de ce doctorat, sont particulièrement adaptées aux utilisateurs finaux, qui ne peuvent pas accéder aux données mesurées par les routeurs avec l'architecture actuelle d'Internet. Sur un autre plan, la théorie des réseaux se développe depuis un siècle, et de nombreux outils permettent de prédire la performance d'un système, en fonction de quelques paramètres clés. La théorie des files d'attentes émerge comme une solution particulièrement fructueuse, que ce soit pour les réseaux téléphoniques ou pour les réseaux filaires à commutation de paquet. Dans ce dernier cas, elle s'intéresse au mécanisme à l'échelle des paquets, et prédit des statistiques à ce niveau. À l'échelle des flots de paquets, la théorie des réseaux à partage de bande passante permet une abstraction de tout schéma d'allocation de bande passante, y compris le partage implicite résultant du protocole TCP. De nombreux travaux ont montré comment les résultats provenant de ces théories peuvent s'appliquer aux réseaux réels, et en particulier à Internet, et dans quels aspects le comportement de réseaux réels diffère des prédictions théoriques. Cependant, il y a eu peu de travaux établissant des liens entre le point de vue théorique d'un réseau et le problème pratique consistant à le mesurer. Le but de ce manuscrit est de bâtir quelques ponts entre le monde des méthodes de mesure par sondes actives et le monde de la théorie des réseaux. Nous adoptons l'approche des problèmes inverses, qui peuvent être vus en opposition aux problèmes directs. Un problème direct prédit l'évolution d'un système défini, en fonction des conditions initiales et d'une équation d'évolution connue. Un problème inverse observe une partie de la trajectoire d'un système défini, et cherche à estimer les conditions initiales ou paramètres pouvant conduire à cette trajectoire. Les données des méthodes de mesure par sondes actives sont les séries temporelles des pertes et délais des sondes, c'est-à-dire précisément une partie de la "trajectoire" d'un réseau. Ainsi, les méthodes de mesures par sondes actives peuvent être considérées comme des problèmes inverses pour une théorie des réseaux qui permettrait une prédiction exacte de l'évolution des réseaux. Nous montrons dans ce document comment les méthodes de mesures par sondes actives sont reliées aux problèmes inverses dans la théories des files d'attentes. Nous spécifions comment les contraintes de mesures peuvent être incluses dans les problèmes inverses, quels sont les observables, et détaillons les étapes successives pour un problème inverse dans la théorie des files d'attentes. Nous classifions les problèmes en trois catégories différentes, en fonction de la nature de leur résultat et de leur généralité, et donnons des exemples simples pour illustrer leurs différentes propriétés. Nous étudions en détail un problème inverse spécifique, où le réseau se comporte comme un réseau dit "de Kelly" avecK serveurs en tandem. Dans ce cas précis, nous calculons explicitement la distribution des délais de bout en bout des sondes, en fonction des capacités résiduelles des serveurs et de l'intensité des sondes. Nous montrons que l'ensemble des capacités résiduelles peut être estimé à partir du délai moyen des sondes pour K intensités de sondes différentes. Nous proposons une méthodes d'inversion alternative, à partir de la distribution des délais des sondes pour une seule intensité de sonde. Dans le cas à deux serveurs, nous donnons une caractérisation directe de l'estimateur du maximum de vraisemblance des capacités résiduelles. Dans le cas général, nous utilisons l'algorithme Espérance-Maximisation (E-M). Nous prouvons que dans le cas à deux serveurs, la suite des estimations de E-M converge vers une limite finie, qui est une solution de l'équation de vraisemblance. Nous proposons une formule explicite pour le calcul de l'itération quand K = 2 ou K = 3, et prouvons que la formule reste calculable quelque soit le nombre de serveurs. Nous évaluons ces techniques numériquement. À partir de simulations utilisant des traces d'un réseau réel, nous étudions indépendamment l'impact de chacune des hypothèses d'un réseau de Kelly sur les performances de l'estimateur, et proposons des facteurs de correction simples si besoin. Nous étendons l'exemple précédant au cas des réseaux en forme d'arbre. Les sondes sont multicast, envoyées depuis la racine et à destination des feuilles. À chaque noeud, elles attendent un temps aléatoire distribué de façon exponentielle. Nous montrons que ce modèle est relié au modèle des réseaux de Kelly sur une topologie d'arbre, avec du trafic transverse unicast et des sondes multicast, et calculons une formule explicite pour la vraisemblance des délais joints. Nous utilisons l'algorithme E-M pour calculer l'estimateur de vraisemblance du délai moyen à chaque noeud, et calculons une formule explicite pour la combinaison des étapes E et M. Des simulations numériques illustrent la convergence de l'estimateur et ses propriétés. Face à la complexité de l'algorithme, nous proposons une technique d'accélération de convergence, permettant ainsi de considérer des arbres beaucoup plus grands. Cette technique contient des aspects innovant dont l'intérêt peut dépasser le cadre de ces travaux. Finalement, nous explorons le cas des problèmes inverses dans la théorie des réseaux à partage de bande passante. À partir de deux exemples simples, nous montrons comment un sondeur peut mesurer le réseau en faisant varier le nombre de flots de sondes, et en mesurant le débit associé aux flots dans chaque cas. En particulier, si l'allocation de bande passante maximise une fonction d'utilité -équitable, l'ensemble des capacités des réseaux et leur nombre de connections associé peut être identifié de manière unique dans la plupart des cas. Nous proposons un algorithme pour effectuer cette inversion, avec des exemples illustrant ses propriétés numériques.
24

The measurement invariance and measurement equivalence of the sources of work stress inventory (SWSI) across gender groups in South Africa

Davis, Samantha 12 1900 (has links)
Thesis (MCom)--Stellenbosch University, 2014. / You will be needing the program SPSS in order to read the .spv files / ENGLISH ABSTRACT: The primary goal of an organisation, in a capitalistic system, is the maximisation of profit. The task of the human resource function in organisations is to affect the work performance of working man to the advantage of the organisation and in a manner that adds value to the organisation. The management of employee wellbeing/psychological health is one of the human resource interventions with which the human resource function pursues this objective. It is imperative for organisations to be aware of, and sensitive to, negative factors in the workplace, such as occupational stress, that influence employees’ health and wellbeing and have a significant effect on job satisfaction and performance (Hamidi & Eivazi, 2010). Prevailing stress levels need to be monitored regularly if escalating stress levels are to be detected in time to prevent serious personal and organisational problems from developing. The Sources of Work Stress Inventory (SWSI) is an instrument developed in South Africa specifically for this purpose (De Bruin & Taylor, 2005). The inappropriate use of occupational stress assessments across genders can seriously jeopardize the extent to which occupational stress assessments, and the decisions based on them, achieve their intended objectives. In order to avoid making widespread generalisations and untested assumptions which will eventually do a disservice to the field of psychology, the absence of measurement bias (i.e. invariance and equivalence) should be demonstrated instead of simply assumed (Van de Vijver & Tanzer, 2004). Establishing the measurement invariance and equivalence of an instrument across groups should be a prerequisite to conducting substantive cross-group comparisons (Dunbar, Theron & Spangenberg, 2011). It is imperative to empirically ascertain whether the instruments that are used are free of cultural, language, gender, age and racial bias, not only because it is prohibited by the Employment Equity Act 55 of 1998, but also as it is in the interest of good workmanship. Bias is indicated as nuisance factors that threaten the validity of cross-group (cultural) comparisons (Van de Vijver & Leung, 1997). These nuisance factors could be due to construct bias, method bias and/or item bias. Due to the importance of the decisions made, it would seem essential that the information provided by test results apply equally across different reference groups. In this study the specific measurement invariance and equivalence sequence of tests set out by Dunbar et al. (2011) was used to answer a sequence of research questions that examine the extent to which the SWSI multi-group measurement model may be considered measurement invariant and equivalent or not, and to determine the source of variance if it existed (Vandenberg & Lance, 2000). Upon investigating the measurement model fit of the SWSI, the results indicated that support was found for the hypotheses that the measurement model fits the data of both gender samples independently. Furthermore, support was found for the configural and weak invariance model. However, due to not meeting the requirements for metric equivalence, partial measurement invariance and equivalence was explored. The SWSI multi-group measurement model met the requirements of partial complete invariance and partial full equivalence, and the non-invariant items were identified in the process. The implications of the results are discussed, limitations are indicated and areas for further research are highlighted. / AFRIKAANSE OPSOMMING: Die kerndoelwit van enige organisasie, veral in ‘n kapitalistiese stelsel, is om optimale wins te genereer. Die taak van die menslike hulpbronbestuurfunksie binne organisasies is om die werksverrigting van die werkende mens te beïnvloed tot voordeel van die organisasie en terselfdetyd waarde tot die organisasie toe te voeg. Die bestuur van ‘n werknemer se welstand / sielkundige gesondheid is een van die menslike hulpbron-iintervensies waarmee die menslike hulpbronfunksie hierdie doelwit nastreef. Dit is uiters belangrik vir organisasies om bewus te wees van, asook sensitief te wees vir, negatiewe faktore soos werkstres, wat werknemers se gesondheid en welsyn beïnvloed en wat 'n beduidende invloed op werkstevredenheid en prestasie het (Hamidi & Eivazi, 2010). Heersende stresvlakke moet gereeld gemonitor word om tydig stygende stresvlakke te bespeur ten einde ernstige persoonlike en organisasieverwante probleme te verhoed. Die Bronne van die Werkstres-inventaris (BWSI) is in Suid-Afrika spesifiek vir hierdie doel ontwikkel (De Bruin & Taylor, 2005). Die ontoepaslike gebruik van werkstresmetings oor geslagte kan egter die mate waartoe beroepstresmetings en die besluite wat daarop gebaseer word hul oogmerke bereik ernstig benadeel. Die afwesigheid van metingsydigheid (bv. invariansie en ekwivalensie) moet dus empiries gedemonstreer word, in stede daarvan dat die afwesigheid daarvan eenvoudig aanvaar word (Van de Vijver & Tanzer, 2004). Die afwesigheid van hierdie informasie kan lei tot wydverspreide veralgemenings en ongetoetsde aannames wat die Sielkunde professie ernstige skade kan berokken. Die meetings-invariansie en -ekwivalensie van 'n instrument oor groepe is 'n voorvereiste vir substantiewe kruis-groepvergelykings (Dunbar, Theron & Spangenberg, 2011). Dit is noodsaaklik om empiries te bepaal of die instrumente wat gebruik is vry is van kulturele-, taal, geslag-, ouderdom- en rasse-sydigheid, nie net omdat dit verbied word deur die Wet op Diensbillikheid 55 van 1998 nie, maar ook omdat dit in die belang van goeie vakmanskap is. Sydigheid is sistermatiese steurnisse wat die geldigheid van die kruis-groep (kulturele) vergelykings (Van de Vijver & Leung, 1997) bedreig. Hierdie steurnisse kan wees as gevolg van konstruk-, metode- en/of itemsydigheid. Gegewe die belangrikheid van die besluite wat geneem word gebaseer op die metings is dit noodsaaklik dat die inligting vergelykbaar oor die verskillende verwysingsgroepe is. Die studie het die stel metingsinvariansie en -ekwivalensie toetse wat deur Dunbar et al. (2011) gebruik om 'n reeks van navorsingsvrae te beantwoord. Daar is ondersoek gestel na die mate waartoe die BWSI multi-groep metingsmodel as invariant of ekwivalent beskou kan word, en die bron van variansie te bepaal as dit sou bestaan (Vandenberg & Lance, 2000). In die ondersoek na die metingsmodel passing van die BWSI, is daar ondersteuning gevind is vir die hipoteses dat die metingsmodel beide van die geslagsteekproewe goed pas. Steun is ook gevind vir die konfigurale en swak invariansie modelle. Aangesien slegs beperkte steun vir metriese ekwivalensie gevind is, is ondersoek na die parsiële metriese invariansie en ekwivalensie ingestel. Die BWSI multi-groep metingsmodel het voldoen aan die vereistes van parsiële volledige invariansie en parsiële volle ekwivalensie, en die nie-invariante items is deur die proses geïdentifiseer. Die implikasies van die resultate word bespreek, beperkinge word aangedui en areas vir verdere navorsing word uitgelig.
25

Analyse et contrôle optimal d'un bioréacteur de digestion anaérobie / Optimal control and analysis of anaerobic digestion bioreactor

Ghouali, Amel 14 December 2015 (has links)
Cette thèse porte sur l'analyse et le contrôle optimal d'un digesteur anaérobie. L'objectif est de proposer une stratégie de commande optimale pour maximiser la quantité de biogaz produit dans un bioréacteur anaérobie sur une période de temps donnée. Plus particulièrement, à partir d'un modèle simple de bioprocédé et en considérant une classe importante de cinétiques de croissance, nous résolvons un problème de maximisation de biogaz produit par le système pendant un temps fixé, en utilisant le taux de dilution D(.) comme variable de contrôle. Dépendant des conditions initiales du système, l'analyse du problème de contrôle optimal fait apparaître des degrés de difficulté très divers. Dans une première partie, nous résolvons le problème dans le cas où le taux de dilution permettant de maximiser le débit de gaz à l'équilibre est à l'intérieur des bornes minimales et maximales du débit d'alimentation pouvant être appliqué au système : il s'agit du cas WDAC (Well Dimensioned Actuator Case). La synthèse du contrôle optimal est obtenue par une approche de comparaison de trajectoires d'un système dynamique. Une étude comparative des solutions exactes avec celle obtenues avec une approche numérique directe en utilisant le logiciel "BOCOP" est faite. Une comparaison des performances du contrôleur optimal avec celles obtenues en appliquant une loi heuristique est discutée. On montre en particulier que les deux lois de commande amènent le système vers le même point optimal. Dans une deuxième partie, dans le cas où l'actionneur est sous- (ou sur-) dimensionné, c'est-à-dire si la valeur du taux de dilution à appliquer pour obtenir le maximum de biogaz à l'équilibre est en dehors de la valeur minimale ou maximale de l'actionneur, alors nous définissons les cas UDAC (Uder dimensioned Actuator Case) et ODAC (Over Dimensioned Actuator Case) que nous résolvons en appliquant le principe du maximum de Pontryagin. / This thesis focuses on the optimal control of an anaerobic digestor for maximizing its biogas production. In particular, using a simple model of the anaerobic digestion process, we derive a control law to maximize the biogas production over a period of time using the dilution rate D(.) as the control variable. Depending on initial conditions and constraints on the actuator, the search for a solution to the optimal control problem reveals very different levels of difficulty. In the first part, we consider that there are no severe constraints on the actuator. In particular, the interval in which the input flow rate lives includes the value which allows the biogas to be maximized at equilibrium. For this case, named WDAC (Well Dimensioned Actuator Case) we solve the optimal control problem using classical tools of differential equations analysis.Numerical simulations illustrate the robustness of the control law with respect to several parameters, notably with respect to initial conditions. We use these results to show that an heuristic control law proposed in the literature is optimal in a certain sense. The optimal trajectories are then compared with those given by a purely numerical optimal control solver (i.e. the "BOCOP" toolkit) which is an open-source toolbox for solving optimal control problems. When the exact analytical solution to the optimal control problem cannot be found, we suggest that such numerical tool can be used to intuiter optimal solutions.In the second part, the problem of maximizing the biogas production is treated when the actuator is under (-over) dimensioned. These are the cases UDAC (Under Dimensioned Actuator Cases) and ODAC (Over Dimensioned Actuator Cases). Then we solve these optimal problems using the Maximum Principle of Pontryagin.
26

Kinetic modelling simulation and optimal operation of fluid catalytic cracking of crude oil: Hydrodynamic investigation of riser gas phase compressibility factor, kinetic parameter estimation strategy and optimal yields of propylene, diesel and gasoline in fluid catalytic cracking unit

John, Yakubu M. January 2018 (has links)
The Fluidized Catalytic Cracking (FCC) is known for its ability to convert refinery wastes into useful fuels such as gasoline, diesel and some lighter products such as ethylene and propylene, which are major building blocks for the polyethylene and polypropylene production. It is the most important unit of the refinery. However, changes in quality, nature of crude oil blends feedstock, environmental changes and the desire to obtain higher profitability, lead to many alternative operating conditions of the FCC riser. There are two major reactors in the FCC unit: the riser and the regenerator. The production objective of the riser is the maximisation of gasoline and diesel, but it can also be used to maximise products like propylene, butylene etc. For the regenerator, it is for regeneration of spent or deactivated catalyst. To realise these objectives, mathematical models of the riser, disengage-stripping section, cyclones and regenerator were adopted from the literature and modified, and then used on the gPROMS model builder platform to make a virtual form of the FCC unit. A new parameter estimation technique was developed in this research and used to estimate new kinetic parameters for a new six lumps kinetic model based on an industrial unit. Research outputs have resulted in the following major products’ yields: gasoline (plant; 47.31 wt% and simulation; 48.63 wt%) and diesel (plant; 18.57 wt% and simulation; 18.42 wt%) and this readily validates the new estimation methodology as well as the kinetic parameters estimated. The same methodology was used to estimate kinetic parameters for a new kinetic reaction scheme that considered propylene as a single lump. The yield of propylene was found to be 4.59 wt%, which is consistent with published data. For the first time, a Z-factor correlation analysis was used in the riser simulation to improve the hydrodynamics. It was found that different Z factor correlations predicted different riser operating pressures (90 – 279 kPa) and temperatures as well as the riser products. The Z factor correlation of Heidaryan et al. (2010a) was found to represent the condition of the riser, and depending on the catalyst-to-oil ratio, this ranges from 1.06 at the inlet of the riser to 0.92 at the exit. Optimisation was carried out to maximise gasoline, propylene in the riser and minimise CO2 in the regenerator. An increase of 4.51% gasoline, 8.93 wt.% increase in propylene as a single lump and 5.24 % reduction of carbon dioxide emission were achieved. Finally, varying the riser diameter was found to have very little effect on the yields of the riser products.
27

The theory of self-interest in modern economic discourse: a critical study in the light of African Humanism and process philosophical Anthropology

Murove, Munyaradzi Felix 09 1900 (has links)
Modern economic theory of self-interest alleges that in their economic relations people always behave in a way that maximises their utility. The idea whether human beings were solely self-interested has a long history as it can be seen from the writings of Greek philosophers and the Church fathers. Among Greek philosophers there were those who argued that human beings were naturally self-interested (Aristotle) and those who maintained that human beings were communal by nature (Plato, Stoics and the Pythagoreans). The later position was adopted by the Church fathers as they condemned self-interest as the sin of avarice and greed. The justification of self-interest in human and political activities was part and parcel of the economic and political early modernists, as it can be seen in the works of Mandeville, Hobbes, Hume and Adam Smith. In the writings of these thinkers, the flourishing of wealth depended on individual freedom to pursue their self-interests. In this regard, selfinterest became the sole source of motivation in the behaviour of homo economicus. A persistent motif in late modern economic discourse on self-interest is based on the idea that people think and act on the basis of that which is to their self-interest. It is mainly for this reason that late modern economic thinkers maintain that society would prosper when people are left alone to pursue their self-interests. Late modern economic theory of utility maximisation alleges that individuals act only after calculating costs and benefits. The argument of this thesis, based on the commonalities between African humanism and process philosophical anthropology, is that self-interest is antithetical to communal life as advocated in the ethic of Ubuntu. One who acts solely on the basis of maximising his or her utility would inevitably deprive others of a humane existence. A holistic metaphysical outlook based on the relatedness and interrelatedness of everything that exists as we find it in African humanism and process philosophical anthropology implies that the individual exists in internal relations with everything else. We should go beyond selfinterest by giving primacy to a holistic ethic. / Systematic Theology & Theological Ethics / D. Div. (Theological Ethics)
28

EDS Rétrogrades et Contrôle Stochastique Séquentiel en Temps Continu en Finance

Kharroubi, Idris 01 December 2009 (has links) (PDF)
Nous étudions le lien entre EDS rétrogrades et certains problèmes d'optimisation stochas- tique ainsi que leurs applications en finance. Dans la première partie, nous nous intéressons à la représentation par EDSR de problème d'optimisation stochastique séquentielle : le contrôle impul- sionnel et le switching optimal. Nous introduisons la notion d'EDSR contrainte à sauts et montrons qu'elle donne une représentation des solutions de problème de contrôle impulsionnel markovien. Nous lions ensuite cette classe d'EDSR aux EDSRs à réflexions obliques et aux processus valeurs de problèmes de switching optimal. Dans la seconde partie nous étudions la discrétisation des EDSRs intervenant plus haut. Nous introduisons une discrétisation des EDSRs contraintes à sauts utilisant l'approximation par EDSRs pénalisées pour laquelle nous obtenons la convergence. Nous étudions ensuite la discrétisation des EDSRs à réflexions obliques. Nous obtenons pour le schéma proposé une vitesse de convergence vers la solution continument réfléchie. Enfin dans la troisième partie, nous étudions un problème de liquidation optimale de portefeuille avec risque et coût d'exécution. Nous considérons un marché financier sur lequel un agent doit liquider une position en un actif risqué. L'intervention de cet agent influe sur le prix de marché de cet actif et conduit à un coût d'exécution modélisant le risque de liquidité. Nous caractérisons la fonction valeur de notre problème comme solution minimale d'une inéquation quasi-variationnelle au sens de la viscosité contrainte.
29

Quelques résultats en optimisation non convexe. I. Formules optimales de sommation d'une série. II. Théorèmes d'existence en densité et application au contrôle

Baranger, Jacques 23 March 1973 (has links) (PDF)
.
30

Modèles Stochastiques pour La Planification de Production et la Gestion de Stocks : Application aux Produits à Court Cycle de Vie

Cheaitou, Ali 21 January 2008 (has links) (PDF)
Le phénomène d'incertitude, dont les sources sont variées, est rencontré dans plusieurs domaines et on devrait y faire face. Cette incertitude est due essentiellement à notre incapacité à prédire avec exactitude le comportement futur d'une partie ou de la totalité d'un système. Dans les dernières décades, plusieurs techniques mathématiques ont été développées pour maitriser cette incertitude, afin de réduire son impact négatif, et par conséquent, l'impact négatif de notre méconnaissance. <br />Dans le domaine du « Supply Chain Management » la source principale d'incertitude est la demande future. Cette demande est, en général, modélisé par des lois de probabilité paramétrées en utilisant des techniques de prévision. L'impact de l'incertitude de la demande sur les performances de la « Supply Chain » est important: par exemple, le taux mondial de rupture de stock, dans l'industrie de distribution était en 2007 de 8.3%. De l'autre côté, le taux mondial de produits invendus, dans la grande distribution, était en 2003 de 1%. Ces deux types de coûts, qui sont dus essentiellement à l'incertitude de la demande, représentent des pertes significatives pour les différents acteurs de la « Supply Chain ».<br />Dans cette thèse, on s'intéresse au développement de modèles mathématiques de planification de production et de gestion de stock, qui prennent en compte ce phénomène d'incertitude sur la demande, essentiellement pour de produits à courte durée de vie. On propose plusieurs modèles de planification de production, à petit horizon de planification, qui prennent en compte les différents aspects de notre problématique, tels que les capacités de production, la remise à jour des prévisions de la demande, les options de réservation de capacité, et les options de retour « Payback » des produits. On souligne, dans ces modèles, un aspect important qui prend de l'ampleur à cause de la mondialisation, et qui est lié à la différence entre les coûts de production des différents fournisseurs. On propose à la fin de la thèse, un modèle généralisé qui pourrait être appliqué à des produits à longue durée de vie, et qui exploite quelques résultats obtenus pour les produits à courte durée de vie. Tous ces modèles sont résolus analytiquement ou bien numériquement en utilisant la programmation dynamique stochastique.

Page generated in 0.0814 seconds