• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 6
  • 1
  • Tagged with
  • 37
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Algorithmes d’optimisation pour un service de transport partagé à la demande / Optimization algorithms for a shared transport service

Vallée, Sven 10 July 2019 (has links)
L'objectif de cette thèse est de proposer des algorithmes d'optimisation efficaces pour un système de tranport en commun à la demande proposé par Padam Mobility, une start-up Parisienne. Après avoir modélisé le problème comme un DARP dynamique, trois modules d'optimisation sont présentés : un module online destiné à répondre aux requêtes en temps réel, un module de réinsertion pour insérer les requêtes rejetées par le module online et enfin un module offline basé sur une métaheuristique permettant d'optimiser en continue les itinéraires. / The purpose of this thesis is to propose efficient optimization algorithms for an on-demand common transportation system operated by Padam Mobility, a Parisian company. Formalised as a dynamic DARP, we propose three optimisation modules to tackle the underlying problem : an online module to answer real-time requests, a reinsertion module to re-insert rejected requests and a metaheuristic-based offline module to continuously optimize the rides. The proposed methods are directly implemented in the company system and extensively tested on real instances.
22

Analyse rapide d’images 3D de matériaux hétérogènes : identification de la structure des milieux et application à leur caractérisation multi-échelle / Fast analysis of heterogeneous materials 3D-images : mediums structure identification and application to their multiscale characterization

Walbron, Amaury 01 April 2016 (has links)
La simulation numérique est un outil de plus en plus utilisé pour la conception et le choix de matériaux composites. Celle-ci permet en effet de générer et tester numériquement des structures très diverses plus facilement et plus rapidement qu’avec des procédés de fabrication et de tests réels. Suite au choix d’un matériau virtuel et sa fabrication tangible, un retour sur expérience est nécessaire afin de valider simultanément la simulation et le procédé de fabrication. Pour cela, la numérisation des matériaux fabriqués permet de renvoyer une modélisation comparable aux structures virtuelles générées. Il devient possible d’appliquer les mêmes algorithmes de simulation et de vérifier les prévisions.Le sujet de cette thèse consiste donc en la modélisation de matériaux composites réels à partir d’images 3D, afin d’y retrouver le matériau virtuel originel. Des méthodes de traitement d’images sont appliquées aux images afin d’en extraire les informations sur la structure du matériau, c’est-à-dire la localisation de chaque constituant et, s’il y a lieu, de leurs orientations. Ces connaissances permettent théoriquement de simuler le comportement thermique et mécanique de structures constituées du matériau étudié.Cependant, en pratique, représenter fidèlement les composites demande de prendre une discrétisation très fine. Par conséquent, une structure macroscopique demande beaucoup trop de points de discrétisation et donc de temps de calcul et de mémoire pour simuler son comportement. Un aspect de la thèse consiste donc aussi en la détermination d’un matériau homogène équivalent, permettant d’alléger la charge de calcul pour les algorithmes de simulation. / Digital simulation is a wide-spreading tool for composite materials design and choice. Indeed it allows to generate and test digitally various structures more easily and quickly than with real manufacturing and tests processes. A feedback is needed following the choice and the fabrication of a virtual material in order to simultaneously validate the simulation and the fabrication process. With this aim, models similar to generated virtual structures are obtained by digitization of manufacturing materials. The same simulation algorithms can then be applied and allow to verify the forecasts. This thesis is also about the modelling of composite materials from 3D images, in order to rediscover in them the original virtual material. Image processing methods are applied to images to extract material structure data, i.e. each constituent localization, and orientation if applicable. These knowledge theoretically allow to simulate thermal and mechanical behavior of structures constituted of studied material. However to accurately represent composites requires practically a very small discretization step. Therefore behavior simulation of a macroscopic structure needs too much discretization points, and then time and memory. Hence a part of this thesis focuses also on determination of equivalent homogeneous material problem, which allows, when resolved, to lighten calculation time for simulation algorithms.
Read more
23

Discriminative pose estimation using mixtures of Gaussian processes

Fergie, Martin Paul January 2013 (has links)
This thesis proposes novel algorithms for using Gaussian processes for Discriminative pose estimation. We overcome the traditional limitations of Gaussian processes, their cubic training complexity and their uni-modal predictive distribution by assembling them in a mixture of experts formulation. Our First contribution shows that by creating a large number of Fixed size Gaussian process experts, we can build a model that is able to scale to large data sets and accurately learn the multi-modal and non- linear mapping between image features and the subject’s pose. We demonstrate that this model gives state of the art performance compared to other discriminative pose estimation techniques.We then extend the model to automatically learn the size and location of each expert. Gaussian processes are able to accurately model non-linear functional regression problems where the output is given as a function of the input. However, when an individual Gaussian process is trained on data which contains multi-modalities, or varying levels of ambiguity, the Gaussian process is unable to accurately model the data. We propose a novel algorithm for learning the size and location of each expert in our mixture of Gaussian processes model to ensure that the training data of each expert matches the assumptions of a Gaussian process. We show that this model is able to out perform our previous mixture of Gaussian processes model.Our final contribution is a dynamics framework for inferring a smooth sequence of pose estimates from a sequence of independent predictive distributions. Discriminative pose estimation infers the pose of each frame independently, leading to jittery tracking results. Our novel algorithm uses a model of human dynamics to infer a smooth path through a sequence of Gaussian mixture models as given by our mixture of Gaussian processes model. We show that our algorithm is able to smooth and correct some mis- takes made by the appearance model alone, and outperform a baseline linear dynamical system.
Read more
24

Quelques contributions vers la simulation parallèle de la cinétique neutronique et la prise en compte de données observées en temps réel / Some contributions towards the parallel simulation of time dependent neutron transport and the integration of observed data in real time

Mula Hernandez, Olga 24 September 2014 (has links)
Dans cette thèse nous avons tout d'abord développé un solveur neutronique de cinétique transport 3D en géométrie déstructurée avec une discrétisation spatiale par éléments finis discontinus (solveur MINARET). L'écriture d'un tel code représente en soi une contribution importante dans la physique des réacteurs car il permettra de connaître de façon très précise l'état du c¿ur au cours d'accidents graves. Il jouera aussi un rôle important pour des études de fluence de la cuve des réacteurs. D'un point de vue mathématique, l'apport le plus important a consisté en l'implémentation d'algorithmes adaptés aux architectures de calcul parallèle, permettant de réduire de façon significative les temps de calcul. Un effort particulier a été mené pour paralléliser de façon efficace la variable temporelle par l'algorithme pararéel en temps. Nous avons ensuite cherché à développer une méthode qui permettrait d'utiliser MINARET comme outil de surveillance pendant l'opération d'un réacteur nucléaire. Une des difficultés majeures de ce problème réside dans le besoin de fournir les simulations en temps réel. La question a été abordée en développant tout d'abord une généralisation de la méthode Empirical Interpolation (EIM) grâce à laquelle on a pu définir un processus d'interpolation bien posé pour des fonctions appartenant à des espaces de Banach. Ceci est rendu possible par l'utilisation de formes linéaires d'interpolation au lieu des traditionnels points d'interpolation et une partie de cette thèse a été consacrée à la compréhension des propriétés théoriques de cette méthode (analyse de convergence sous hypothèse d'ensemble de petite dimension de Kolmogorov et étude de sa stabilité). / In this thesis, we have first developed a time dependent 3D neutron transport solver on unstructured meshes with discontinuous Galerkin finite elements spatial discretization. The solver (called MINARET) represents in itself an important contribution in reactor physics thanks to the accuracy that it can provide in the knowledge of the state of the core during severe accidents. It will also play an important role on vessel fluence calculations. From a mathematical point of view, the most important contribution has consisted in the implementation of algorithms that are well adapted for modern parallel architectures and that significantly decrease the computing times. A special effort has been done in order to efficiently parallelize the time variable by the use of the parareal in time algorithm. On a second stage, we have developed the foundations of a method with which we could use MINARET to monitor in real time the population of neutrons during the operation of the reactor. One of the major difficulties relies in the necessity of providing computations in real time. This question has been addressed by proposing an extension of the Empirical Interpolation Method (EIM) thanks to which a well-posed interpolation procedure has been defined for functions belonging to Banach spaces. This is possible thanks to the use of interpolating linear forms instead of the traditional interpolation points and a part of this thesis has been devoted to the understanding of the theoretical properties of this method (convergence analysis under the hypothesis of small Kolmogorov n-width and stability of the procedure).
Read more
25

Algorithmes de multiplication : complexité bilinéaire et méthodes asymptotiquement rapides / Multiplication algorithms : bilinear complexity and fast asymptotic methods

Covanov, Svyatoslav 05 June 2018 (has links)
Depuis 1960 et le résultat fondateur de Karatsuba, on sait que la complexité de la multiplication (d’entiers ou de polynômes) est sous-quadratique : étant donné un anneau R quelconque, le produit sur R[X] des polynômes a_0 + a_1 X et b_0 + b_1 X, pour tous a_0, a_1, b_0 et b_1 dans R, peut être calculé en seulement trois et non pas quatre multiplications sur R : (a_0 + a_1 X)(b_0 + b_1 X) = m_0 + (m_2 - m_0 - m_1)X + m_1 X^2, avec les trois produits m_0 = a_0b_0, m_1 = a_1b_1 et m_2 = (a_0 + a_1)(b_0 + b_1). De la même manière, l’algorithme de Strassen permet de multiplier deux matrices 2nx2n en seulement sept produits de matrices nxn. Les deux exemples précédents tombent dans la catégorie des applications bilinéaires : des fonctions de la forme Phi : K^m x K^n -> K^l, pour un corps donné K, linéaires en chacune des deux variables. Parmi les applications bilinéaires les plus classiques, on trouve ainsi la multiplication de polynômes, de matrices, ou encore d’éléments d’extensions algébriques de corps finis. Étant donnée une application bilinéaire Phi, calculer le nombre minimal de multiplications nécessaires au calcul de cette application est un problème NP-difficile. L'objectif de cette thèse est de proposer des algorithmes minimisant ce nombre de multiplications. Deux angles d'attaques ont été suivis. Un premier aspect de cette thèse est l'étude du problème du calcul de la complexité bilinéaire sous l'angle de la reformulation de ce problème en termes de recherche de sous-espaces vectoriels de matrices de rang donné. Ce travail a donné lieu à un algorithme tenant compte de propriétés intrinsèques aux produits considérés tels que les produits matriciels ou polynomiaux sur des corps finis. Cet algorithme a permis de trouver toutes les décompositions possibles, sur F_2, pour le produit de polynômes modulo X^5 et le produit de matrices 3x2 par 2x3. Un autre aspect de ma thèse est celui du développement d’algorithmes asymptotiquement rapides pour la multiplication entière. Une famille particulière d'algorithmes récents ont été proposés suite à un article de Fürer publié en 2007, qui proposait un premier algorithme, reposant sur la transformée de Fourier rapide (FFT) permettant de multiplier des entiers de n bits en O(n log n 2^{O(log^* n)}), où log^* est la fonction logarithme itéré. Dans cette thèse, un algorithme dont la complexité dépend d'une conjecture de théorie des nombres est proposé, reposant sur la FFT et l'utilisation de premiers généralisés de Fermat. Une analyse de complexité permet d'obtenir une estimation en O(n log n 4^{log^* n}) / Since 1960 and the result of Karatsuba, we know that the complexity of the multiplication (of integers or polynomials) is sub-quadratic: given a ring R, the product in R[X] of polynomials a_0 + a_1 X and b_0 + b_1 X, for any a_0, a_1, b_0 and b_1 in R, can be computed with three and not four multiplications over R: (a_0 + a_1X)(b_0 + b_1X) = m_0 + (m_2 - m_0 - m_1)X + m_1X^2, with the three multiplications m_0 = a_0b_0, m_1 = a_1b_1 et m_2 = (a_0 + a_1)(b_0 + b_1). In the same manner, Strassen's algorithm allows one to multiply two matrices 2nx2n with only seven products of matrices nxn. The two previous examples fall in the category of bilinear maps: these are functions of the form Phi : K^m x K^n -> K^l, given a field K, linear in each variable. Among the most classical bilinear maps, we have the multiplication of polynomials, matrices, or even elements of algebraic extension of finite fields. Given a bilinear map Phi, computing the minimal number of multiplications necessary to the evaluation of this map is a NP-hard problem. The purpose of this thesis is to propose algorithms minimizing this number of multiplications. Two angles of attack have been studied. The first aspect of this thesis is to study the problem of the computation of the bilinear complexity under the angle of the reformulation of this problem in terms of research of matrix subspaces of a given rank. This work led to an algorithm taking into account intrinsic properties of the considered products such as matrix or polynomial products over finite fields. This algorithm allows one to find all the possible decompositions, over F_2, for the product of polynomials modulo X^5 and the product of matrices 3x2 by 2x3. Another aspect of this thesis was the development of fast asymptotic methods for the integer multiplication. There is a particular family of algorithms that has been proposed after an article by Fürer published in 2007. This article proposed a first algorithm, relying on fast Fourier transform (FFT), allowing one to multiply n-bit integers in O(n log n 2^{O(log^* n)}), where log^* is the iterated logarithm function. In this thesis, an algorithm, relying on a number theoretical conjecture, has been proposed, involving the use of FFT and generalized Fermat primes. With a careful complexity analysis of this algorithm, we obtain a complexity in O(nlog n 4^{log^* n})
Read more
26

Improving the simulation of IaaS Clouds / Amélioration de simulation de cloud IaaS via l’emploi de méthodes stochastiques

Bertot, Luke 17 June 2019 (has links)
Les clouds sont devenus ces dernières années des plate-formes incontournables dans le monde informatique, car ils permettent de provisionner des ressources à la demande et de ne payer qu’à l’usage. Ceci ouvre la possibilité de concevoir de nouvelles stratégies pour la planification et l’exécution des applications parallèles de type tâches indépendantes ou workflow. Cependant, trouver une stratégie bien adaptée aux contraintes des utilisateurs, que ce soit en termes de coûts et de temps d’exécution, est un problème difficile, pour lequel des outils de prédictions sont nécessaires. Néanmoins, la variabilité inhérente de ces plate-formes complexifient le développement d’un tel outil de prédiction. Notre thèse est que la simulation stochastique est une approche pertinente pour obtenir une prédiction s’accommodant de la variabilité, en produisant une distribution probabiliste des prédictions englobant les résultats réels observables. Pour le démontrer, nous utilisons une méthode de Monte-Carlo permettant de créer des simulations stochastiques par la répétitions de simulations déterministes. Nous montrons que cette méthode associée à certaines distributions d’entrée permettent de modéliser la variabilité d’une plate-forme à travers un unique paramètre. Pour évaluer la méthode proposée, nous comparons les résultats de notre méthode probabiliste à des exécutions réelles d’applications scientifiques. Nos expériences montrent que notre méthode permet de produire des prédictions représentatives des exécutions réelles observées. / The ability to provision resources on the fly and their pay-as-you-go nature has made cloud computing platforms a staple of modern computer infrastructure. Such platforms allow for new scheduling strategies for the execution of computing workloads. Finding a strategy that satisfies a user’s cost and time constraints is a difficult problem that requires a prediction tool. However the inherent variability of these platforms makes building such a tool a complex endeavor. Our thesis is that, by producing probability distributions of possible outcomes, stochastic simulation can be used to produce predictions that account for the variability. To demonstrate this we used Monte Carlo methods to produce a stochastic simulation by repeatedly running deterministic simulations. We show that this method used in conjunction with specific input models can model the variability of a platform using a single parameter. To validate our method we compare our results to real executions of scientific workloads. Our experiments show that our method produces predictions capable of representing theobserved real executions.
Read more
27

Calcul d'itinéraires multiples et de trajets synchronisés dans des réseaux de transport multimodaux / Multiple itinerary and synchronized trip computation in multi-modal transportation networks

Scano, Gregoire 08 September 2016 (has links)
L’utilisation des réseaux de transport est conditionnée par l’efficacité et la simplicité de leur utilisation. En réponse à une mobilité exacerbée, volontaire ou subie, l’offre de transport se développe et motive tout à la fois, en un cycle continu, des déplacements encore plus exigeants. De manière complémentaire, la mobilité est bousculée par l’arrivée de nouvelles modalités de transport pouvant faire émerger, comme dans le cadre du covoiturage, des acteurs ou des pratiques jusqu’alors inexistants. Si la technologie permet de suivre cette évolution dans les services d’information aux voyageurs, il reste toujours à satisfaire des attentes déterminées par des usages en constante évolution. C’est de ce point de vue que l’obtention de chemins multiples pour relier une origine à une destination est un facteur qui n’est plus à négliger, surtout dans des réseaux de transport denses et comportant de nombreux modes et lignes de transport. Une liberté dans le choix laissé à l’utilisateur du réseau réduit les sentiments d’exclusion, d’incompréhension ou d’anxiété qui peuvent survenir face à une application logicielle ou sur internet et qui effectuent des choix arbitraires de façon autoritaire. De plus, cela permet de vérifier la qualité de l’offre de transport, car plus il existe de moyens différents pour effectuer un trajet dans un intervalle de temps donné, meilleur est le service. Cette thèse s’intéresse au calcul de telles alternatives par le biais de l’énumération par coût croissant des chemins entre deux points, puis par le filtrage de ceux-ci suivant des critères, supposés quelconques et laissés à l’appréciation des professionnels de transport qui peuvent ainsi faire varier les angles d’analyses de leurs offres.Par ailleurs, la synchronisation de trajets de plusieurs utilisateurs, en vue d’usages sociaux ou de déplacements mutualisés, est étudiée dans ce manuscrit sous l’angle du covoiturage. En ne considérant que deux usagers, l’objectif est de minimiser le temps de trajet global des participants sous la contrainte qu’ils partagent une partie de leur chemin entre un point de rencontre et un point de séparation qu’il faut alors déterminer. Sont également étudiées les variantes associées au changement des conditions de transport de chacun des participants comme l’établissement d’une origine ou d’une destination commune parallèlement à des contraintes sur les heures de départ ou d’arrivée des usagers. Enfin, puisque la voiture est très souvent pénalisée par la prise en charge d’un piéton, il convient d’étudier comment ce détour peut être contraint et les impacts sur les gains que cette limitation engendre.Cette thèse a été réalisée dans un contexte CIFRE pour la société MobiGIS. Lestravaux qui s’y rapportent ont fait l’objet de réalisations pratiques tant pour fournirdes solutions de mobilité dans le cadre des activités de l’entreprise que pour évaluerexpérimentalement les performances des algorithmes proposés pour les résoudre. / Efficiency and simplicity are two conditions upon which the use of a transportation system is relevant. May it be intentional or imposed, an increasing mobility triggers the need to enhance the transportation offer. In turn, such a response encourages an even more demanding mobility in a constantly adapting cycle. In parallel, new and forthcoming means of transportation emerge from time to time with unknown practices and renewed actors : exactly like what carpooling is stirring at the moment. Passenger information systems can technically deal with such evolutions thanks to improved technologies but they still struggle to keep up with constantly changing usage expectations.From this perspective the computation of several paths from an origin to a destination becomes increasingly relevant. This issue is even more crucial in dense transportation networks in which many modes and lines of transportation are combined. Indeed, giving some traveling choices to the end user reduces the feeling of exclusion, anxiety and the lack of understanding which may arise when facing arbitrary decisions dictated by a software or an Internet application. It is also helpful to estimate the quality of the transportation offer since the more paths exist to go from point A to point B within a fixed time window, the better the service is. This thesis focuses on the computation of such alternatives by the gradually increasing enumeration of paths between two points. Given this input, the pruning necessary to obtain such a diverse selection is assumed not to be known in advance. It is left up to transportation professionals who may choose a fitted solution based on their specific knowledge and objectives.Another subject studied in this thesis concerns the itinerary synchronization of several users for various social uses such as shared travels. It is here seen from the perspective of carpooling. Considering only two users, the problem is to minimize the traveling cost of the users under the constraint that they must share some part of their respective trips with one another. Solving this problem is equivalent to finding a pick up point and a drop off location between which both paths overlap. Multiple corner cases concerning the transportation conditions of each user as well as the special cases of shared origins or destinations are studied. The constraints on the arrival and/or departure times may also vary. Last but not least and since the driver is often penalized when giving up a lift, the restriction to a maximal detour the driver accepts, compared to his shortest path, is analyzed with respect to the benefits such a limitation generates.This thesis was funded by the MobiGIS company under the CIFRE (Industrial Agreement of Training through Research) researching context. The related work consisted in the practical implementation of mobility solutions within the framework of the company as well as the experimental performances evaluation of the algorithms proposed to solve them.
Read more
28

Parametric LCA approaches for efficient design / Approches d'ACV paramétriques pour une conception performante

Kozderka, Michal 13 December 2016 (has links)
Ces travaux de recherche portent sur la problématique de la mise en pratique de l'analyse de cycle de vie (ACV). La question principale est : comment faire une ACV plus rapide et plus facilement accessible pour la conception des produits ? Nous nous concentrons sur deux problématiques qui prolongent l'inventaire de Cycle de Vie (ICV) : • recherche des données manquantes : Comment ranger les données manquantes selon leur importance? Comment traiter l'intersection des aspects qualitatifs et les aspects quantitatifs des données manquantes? • Modélisation du cycle de vie : Comment réutiliser le cycle de vie existant pour un nouveau produit? Comment développer un modèle de référence? Pour la recherche des solutions nous avons utilisé l'approche "Case study" selon Robert Yin. Nos contributions font résultat de trois études de cas, dont la plus importante est l'ACV du High Impact Polypropylene (HIPP) recyclé. Nous avons publié les résultats de celle-ci dans la revue scientifique Journal of Cleaner Production. Suite aux études de cas nous proposons deux approches d'amélioration d'efficacité en ICV : nous proposons l'analyse de sensibilité préalable pour classifier les données manquantes selon leur impact sur les résultats d'ACV. L'approche combine les aspects quantitatifs avec les aspects quantitatifs en protégeant le respect des objectives d'étude. Nous appelons cette protection "LCA Poka-Yoké". La modélisation du cycle de vie peut être assistée grace à la méthode basée sur l'algorithme de King. Pour la continuation de la recherche nous proposons huit perspectives, dont six font l'objet d'intégration des nouvelles approches d'amélioration dans les concepts d'ACV basés sur la norme ISO 14025 ou dans le projet de la Commission Européenne PEF. / This work addresses the different issues that put a brake to using Lifecycle assessment (LCA) in product design by answering the main question of the research: How to make Lifecycle assessment faster and easier accessible for manufactured product design? In the LCA methodology we have identified two issues to deal with and their consecutive scientific locks : • Research of missing data : How to organize missing data? How to respect quantitative and qualitative dimensions? • Modeling of the lifecycle scenario : How to translate methodological choices into the lifecycle scenario model? How to transform the reference scenario into a new one? We have dealt with these issues using the scientific approach Case study according toRobert Yin. Our contributions are based on three case studies, between which the most important is study of High Impact Polypropylene recycling in the automotive industry. We have published it in the Journal of Cleaner Production. As result of our research we present two methods to improve efficiency of the LifecycleInventory Analysis (LCI) : To organize the missing data: Preliminary sensitivity analysis with LCA Poka-Yoke ; To help with scenario modeling: Method of workflows factorization, based on Reverse engineering. For further research we propose eight perspectives, mostly based on integration of our methods into Product Category Rules (PCR)-based platforms like EPD International or the European PEF.
Read more
29

Generalization Performance of Margin Multi-category Classifiers / Performances en généralisation des classifieurs multi-classes à marge

Musayeva, Khadija 23 September 2019 (has links)
Cette thèse porte sur la théorie de la discrimination multi-classe à marge. Elle a pour cadre la théorie statistique de l’apprentissage de Vapnik et Chervonenkis. L’objectif est d’établir des bornes de généralisation possédant une dépendances explicite au nombre C de catégories, à la taille m de l’échantillon et au paramètre de marge gamma, lorsque la fonction de perte considérée est une fonction de perte à marge possédant la propriété d’être lipschitzienne. La borne de généralisation repose sur la performance empirique du classifieur ainsi que sur sa "capacité". Dans cette thèse, les mesures de capacité considérées sont les suivantes : la complexité de Rademacher, les nombres de recouvrement et la dimension fat-shattering. Nos principales contributions sont obtenues sous l’hypothèse que les classes de fonctions composantes calculées par le classifieur ont des dimensions fat-shattering polynomiales et que les fonctions composantes sont indépendantes. Dans le contexte du schéma de calcul introduit par Mendelson, qui repose sur les relations entre les mesures de capacité évoquées plus haut, nous étudions l’impact que la décomposition au niveau de l’une de ces mesures de capacité a sur les dépendances (de la borne de généralisation) à C, m et gamma. En particulier, nous démontrons que la dépendance à C peut être considérablement améliorée par rapport à l’état de l’art si la décomposition est reportée au niveau du nombre de recouvrement ou de la dimension fat-shattering. Ce changement peut affecter négativement le taux de convergence (dépendance à m), ce qui souligne le fait que l’optimisation par rapport aux trois paramètres fondamentaux se traduit par la recherche d’un compromis. / This thesis deals with the theory of margin multi-category classification, and is based on the statistical learning theory founded by Vapnik and Chervonenkis. We are interested in deriving generalization bounds with explicit dependencies on the number C of categories, the sample size m and the margin parameter gamma, when the loss function considered is a Lipschitz continuous margin loss function. Generalization bounds rely on the empirical performance of the classifier as well as its "capacity". In this work, the following scale-sensitive capacity measures are considered: the Rademacher complexity, the covering numbers and the fat-shattering dimension. Our main contributions are obtained under the assumption that the classes of component functions implemented by a classifier have polynomially growing fat-shattering dimensions and that the component functions are independent. In the context of the pathway of Mendelson, which relates the Rademacher complexity to the covering numbers and the latter to the fat-shattering dimension, we study the impact that decomposing at the level of one of these capacity measures has on the dependencies on C, m and gamma. In particular, we demonstrate that the dependency on C can be substantially improved over the state of the art if the decomposition is postponed to the level of the metric entropy or the fat-shattering dimension. On the other hand, this impacts negatively the rate of convergence (dependency on m), an indication of the fact that optimizing the dependencies on the three basic parameters amounts to looking for a trade-off.
Read more
30

Modeling and Solving Home Health Care Routing and Scheduling Problem with Consideration of Uncertainties / Modélisation et résolution des problèmes de routage et de planification des soins de santé à domicile liés à la prise en compte des incertitudes

Shi, Yong 27 November 2018 (has links)
Les soins de santé à domicile (HHC) sont un large éventail de services de santé pouvant être dispensés à domicile pour une maladie ou une blessure. Ces dernières années, le secteur des soins de santé est devenu l'un des plus grands secteurs de l'économie des pays développés. L'un des défis les plus importants dans le domaine des HHC consiste à affecter plus efficacement les ressources en main-d'œuvre et les équipements sous des ressources limitées. Étant donné que le coût du transport est l’une des dépenses les plus critiques dans les activités de l’entreprise, il est très important d’optimiser le problème de routage des véhicules pour les sociétés HHC.Cependant, la majorité des travaux existants ne prennent en compte que le modèle déterministe. Dans la pratique de HHC, le décideur et les aidants rencontrent souvent des incertitudes. Il est donc essentiel d'intégrer l'incertitude dans le modèle pour établir un calendrier raisonnable pour la société HHC. Cette thèse aborde le problème du routage et de la planification HHC en prenant en compte respectivement la demande non déterministe, le service et le temps de parcours. Le corps principal de la thèse est composé de trois œuvres indépendantes.(1) Sur la base de la théorie de la crédibilité floue, nous avons proposé un modèle de programmation par contraintes de hasard flou (FCCP) pour le problème de routage HHC avec une demande floue. Ce modèle présente à la fois des caractéristiques d'optimisation combinatoire et de FCCP. Pour faire face au problème à grande échelle, nous avons développé un algorithme génétique hybride avec la simulation de Monte Carlo. Trois séries d'expériences ont été menées pour valider les performances du modèle et de l'algorithme proposés. Enfin, l’analyse de sensibilité a également porté sur l’observation du paramètre variable impliqué dans la prise de décision floue.(2) En fonction de l'activité des soignants de HHC, nous avons proposé un modèle de programmation stochastique en deux étapes avec recours (SPR) pour la livraison et la reprise simultanées avec des temps de trajet et de service stochastiques dans HHC. Pour résoudre le modèle, nous avons d’une part réduit le modèle au cas déterministe. Le solveur de Gurobi, le recuit simulé (SA), l’algorithme de chauve-souris, l’algorithme de luciole ont été proposés pour résoudre le modèle déterministe pour 56 instances respectivement. Enfin, le SA a été adopté pour traiter le modèle SPR. Une comparaison entre les solutions obtenues par les deux modèles a également été réalisée pour mettre en évidence la prise en compte des temps de parcours et de service stochastiques.(3) Pour garantir la qualité du service, sur la base d’un budget de la théorie de l’incertitude, nous avons proposé un modèle d’optimisation robuste (RO) pour HHC Routing, prenant en compte les exigences en termes de temps de déplacement et de service. La vérification de la solution réalisable a été réécrite en tant que fonction récursive complexe. Recherche tabou, SA, Recherche de voisinage variable sont également adaptés pour résoudre le modèle. Un grand nombre d'expériences ont été réalisées pour évaluer le modèle déterministe et le modèle RO. Une analyse de sensibilité des paramètres a également été effectuée. / Home health care (HHC) is a wide range of healthcare services that can be given in one's home for an illness or injury. In recent years, the healthcare industry has become one of the largest sectors of the economy in developed countries. One of the most significant challenges in HHC domain is to assign the labor resources and equipment more efficiently under limited resources. Since the transportation cost is one of the most critical spendings in the company activities, it is of great significance to optimize the vehicle routing problem for HHC companies.However, a majority of the existing work only considers the deterministic model. In the practical of HHC, the decision-makers and caregivers often encounter with uncertainties. So, it is essential to incorporate the uncertainty into the model to make a reasonable and robust schedule for HHC company. This thesis addresses the HHC routing and scheduling problem with taking into account the non-deterministic demand, uncertain service and travel time respectively. The main body the thesis is composed of three independent works.(1) Based on the Fuzzy Credibility Theory, we proposed a fuzzy chance constraint programming (FCCP) model for HHC routing problem with fuzzy demand. This model has both characteristics of combinatorial optimization and FCCP. To deal with the large-scale problem, we developed a Hybrid Genetic Algorithm with the Monte Carlo simulation. Three series of experiments were conducted to validate the performance of the proposed model and algorithm. At last the sensitivity analysis was also carried out the observe the variable parameter involved in the fuzzy decision-making.(2) According to the activity of the caregivers in HHC, we proposed a two-stage stochastic programming model with recourse (SPR) for the simultaneous delivery and pick-up with stochastic travel and service times in HHC. To solve the model, firstly, we reduced the model to the deterministic one. Gurobi Solver, Simulated Annealing (SA), Bat Algorithm (BA), Firefly Algorithm (FA) were proposed to solve the deterministic model for 56 instances respectively. At last the SA was adopted to address the SPR model. Comparison between the solutions obtained by the two models was also conducted to highlight the consideration of the stochastic travel and service times.(3) To guarantee the service quality, based on a budget of uncertainty theory, we proposed a Robust Optimization (RO) model for HHC Routing with considering skill requirements under travel and service times uncertainty. The feasible solution check was rewritten as a complex recursive function. Tabu Search, SA, Variable Neighborhood Search are adapted to solve the model. A large number of experiments had been performed to evaluate the deterministic model and the RO model.
Read more

Page generated in 0.1042 seconds