• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 11
  • 6
  • Tagged with
  • 58
  • 23
  • 18
  • 14
  • 12
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Quantitative a posteriori error estimators in Finite Element-based shape optimization / Estimations d'erreur a posteriori quantitatives pour l'approximation des problèmes d'optimisation de forme par la méthode des éléments finis

Giacomini, Matteo 09 December 2016 (has links)
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée. / Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle.
52

Transformation de Aluthge et vecteurs extrémaux / Aluthge Transform and Extremal Vectors

Verliat, Jérôme 21 December 2010 (has links)
Cette thèse s'articule autour de deux thèmes : une transformation de B(H) introduite par Aluthge et la méthode d'Ansari-Enflo. La première partie fait l'objet de l'étude de la transformation d’Aluthge qui a eu un impact important ces dernières années en théorie des opérateurs. Des résultats optimaux sur la stabilité d'un certain nombre de classes d'opérateurs, telles que la classe des isométries partielles et les classes associées au comportement asymptotique d'un opérateur, sont fournis. Nous étudions également l'évolution d'invariants opératoriels, tels que le polynôme minimal, la fonction minimum, l'ascente et la descente, sous l'action de la transformation ; nous comparons plus précisément les suites des noyaux et images relatives aux itérés d'un opérateur et de sa transformée de Aluthge. La deuxième partie est l'occasion d'étudier la théorie d'Ansari-Enflo, qui a permis de gros progrès pour le problème du sous-espace hyper-invariant. Nous développons plus particulièrement la notion fondatrice de la méthode, celle de vecteur extrémal. La localisation et une nouvelle caractérisation de ces vecteurs sont données. Leur régularité et leur robustesse, au regard de différents paramètres, sont éprouvées. Enfin, nous comparons les vecteurs extrémaux d'un shift à poids et ceux associés à sa transformée d’Aluthge. Cette étude aboutit à la construction d'une suite de vecteurs extrémaux associés aux itérés de la transformation d’Aluthge, pour laquelle certaines propriétés sont mises en évidence. / This thesis is based on two topics : a transformation of B(H) introduced by Aluthge and the Ansari-Enflo method. In the first part, we study the Aluthge transformation which really had an impact on operator theory in the past ten years. Some optimal results about stability for several operators classes, such as isometries class and classes of operators defined by their asymptotic behaviour, are given. We also study changes generated by Aluthge transform about some usual tools in operator theory like minimum polynomial, minimum function, ascent and descent ; precisely, we compare iterated kernels and iterated ranges sequences related to an operator and to its Aluthge transform. The second part is devoted to the study of the Ansari-Enflo theory, which allowed to make progress in the hyper-invariant subspace problem. We develop the notion of extremal vectors which is the fundamental point of the theory. We clarify their spatial localization and a new caracterisation for these vectors is given. Regularity and robustness with regard to different parameters are tried and tested. Finally, we compare extremal vectors associated with weighted shifts and the one corresponding to their Aluthge transform. This study leads to build a sequence of extremal vectors associated with the iterated Aluthge transform, for which we highlight several properties.
53

MODELISATION MATHEMATIQUE ET SIMULATION NUMERIQUE DU DRAPE D'UN TEXTILE

Fare, Nadjombe 26 June 2002 (has links) (PDF)
L'objectif de ce travail est d'étudier la dé<br />formation d'un tissu posé sur un support bi- ou tri-dimensionnel et soumis à<br />son propre poids.<br />Dans la première partie, nous établissons les équations<br />d'équilibre de ce problème dans le cas général et<br />introduisons deux modèles mathématiques. Le premier est un<br />modèle membranaire non-linéaire, dont l'analyse mathématique<br />conduit au calcul de l'enveloppe quasi-convexe de la densité<br />d'énergie associée. Le deuxième modèle (modèle<br />membrane-flexion non-linéaire) est obtenu en ajoutant un terme<br />régularisant à une fonctionnelle énergie non coercive. Nous<br />prouvons l'existence d'au moins une solution de ce problème de<br />minimisation, en utilisant les techniques du Calcul des Variations. Enfin,<br />nous établissons l'existence de solutions pour le problème de<br />drapé tri-dimensionnel.<br />La seconde partie est consacrée à la résolution numérique des diffé%<br />rents modèles élaborés dans la première partie, au moyen d'une méthode ité%<br />rative de descente couplée avec une méthode multigrille, afin d'accélérer la<br />convergence de l'algorithme. Nous montrons que le problème discret admet au<br />moins une solution. Enfin, nous prouvons la convergence théorique d'une<br />sous-suite de solutions discrètes vers une solution du problème continu,<br />moyennant une hypothèse de densité.
54

Imagerie Mathématique: segmentation sous contraintes géométriques ~ Théorie et Applications

Le Guyader, Carole 09 December 2004 (has links) (PDF)
Dans cette thèse, nous nous intéressons à des problèmes de segmentation d'images sous contraintes géométriques. Cette problématique a émergé suite à l'analyse de plusieurs méthodes classiques de détection de contours qui a été faite. En effet, ces méthodes classiques (Modèles déformables, contours actifs géodésiques, 'fast marching', etc...) se révèlent caduques quand des données de l'image sont manquantes ou de mauvaise qualité. En imagerie médicale par exemple, des phénomènes d'occlusion peuvent se produire : des organes peuvent se masquer en partie l'un l'autre (ex du foie). Par ailleurs, deux objets qui se jouxtent peuvent posséder des textures intrinsèques homogènes si bien qu'il est difficile d'identifier clairement l'interface entre ces deux objets. La définition classique d'un contour qui est caractérisé comme étant le lieu des points connexes présentant une forte transition de luminosité ne s'applique donc plus. Enfin, dans certains contextes d'étude, comme en géophysique, on peut disposer en plus des doneées d'imagerie, de données géométriques à intégrer au processus de segmentation.<br /><br />Pour pallier ces difficultés, nous proposons ici des modèles de segmentation intégrant des contraintes géométriques et satisfaisant les critères classiques de détection avec en particulier la régularité sur le contour que cela implique.
55

Prévisibilité des ressources en eau à l'échelle saisonnière en France

Stéphanie, Singla 13 November 2012 (has links) (PDF)
Bien que la prévision saisonnière soit opérationnelle depuis quelques années, son application à l'hydrologie reste encore aujourd'hui moins développée. La prévision saisonnière hydrologique peut pourtant se révéler être un outil utile pour prévoir quelques mois à l'avance les caractéristiques hydrologiques, comme les conditions d'humidité des sols ou les débits des rivières. L'objectif de cette thèse est d'évaluer le potentiel de la chaîne hydrométéorologique Hydro-SF pour prévoir les débits et l'humidité des sols à l'échelle de la saison en France métropolitaine pour la gestion des ressources en eau, et plus particulièrement l'anticipation des sécheresses et des basses eaux. Pour cela, dans un premier temps, les différentes sources de prévisibilité du système hydrologique, ainsi que l'apport de la prévision saisonnière par rapport à une prévision climatologique, sont évaluées sur la période de 1960 à 2005 au printemps (trimestre Mars-Avril-Mai). Ces résultats, qui font l'objet d'un article publié, montrent alors qu'une part importante de la prévisibilité du système hydrologique provient : de la neige pour les bassins de montagne, de la nappe souterraine modélisée dans le bassin de la Seine, et du forçage atmosphérique pour les plaines en France. De plus, plusieurs forçages du modèle de climat ARPEGE sont comparés, et l'apport de la prévision saisonnière par rapport à la climatologie est constaté sur le Nord-Est de la France. Ensuite, compte-tenu de l'importance des forçages tmosphériques dans les résultats obtenus précédemment en zone de plaine, un travail spécifique sur la descente d'échelle des prévisions saisonnières météorologiques est réalisé. Les températures et les précipitations issues des prévisions saisonnières sont désagrégées grâce à une méthode statistique complexe : la classification par type de temps et analogues avec DSCLIM. Cette désagrégation est ainsi comparée à la méthode implémentée jusqu'à présent, basée sur une simple interpolation spatiale et des calculs d'anomalies standardisées. Ce travail sur la descente d'échelle s'effectue toujours sur la période du printemps, et permet ainsi de constater que son apport par rapport à la descente d'échelle simple auparavant utilisée reste mitigé autant pour les paramètres de surface du forçage atmosphérique que pour les variables hydrologiques. Quelques pistes d'études plus poussées sur la descente d'échelle des prévisions saisonnières sont ainsi proposées pour l'avenir. Enfin, des prévisions saisonnières hydrologiques sont réalisées pour la saison de l'été (Juin-Juillet-Août), période où ont lieu les plus fortes tensions sur les différents usages de l'eau du fait des faibles débits et des sécheresses. Ce thème est alors documenté à l'aide de quatre expériences de prévisions avec des dates d'initialisations différentes (de Février à Mai) pour évaluer la chaîne Hydro-SF sur la période de débits estivaux en France, mais aussi pour connaître la date optimale d'initialisation des prévisions et permettre la meilleure anticipation d'éventuelles sécheresses. Les résultats sont intéressants puisqu'ils montrent des scores significatifs à partir des prévisions initialisées au mois d'Avril, surtout pour les bassins en aval des montagnes dont la prévisibilité dépend de la couverture neigeuse, et le bassin de la Seine où l'influence de la nappe modélisée sur les débits des rivières augmente par rapport au printemps. Comme pour le printemps, l'apport de la prévision saisonnière pour le système hydrologique est évalué et montre une valeur ajoutée sur le Sud de la France.
56

Apprentissage de circuits quantiques par descente de gradient classique

Lamarre, Aldo 07 1900 (has links)
Nous présentons un nouvel algorithme d’apprentissage de circuits quantiques basé sur la descente de gradient classique. Comme ce sujet unifie deux disciplines, nous expliquons les deux domaines aux gens de l’autre discipline. Conséquemment, nous débutons par une présentation du calcul quantique et des circuits quantiques pour les gens en apprentissage automatique suivi d’une présentation des algorithmes d’apprentissage automatique pour les gens en informatique quantique. Puis, pour motiver et mettre en contexte nos résultats, nous passons à une légère revue de littérature en apprentissage automatique quantique. Ensuite, nous présentons notre modèle, son algorithme, ses variantes et quelques résultats empiriques. Finalement, nous critiquons notre implémentation en montrant des extensions et des nouvelles approches possibles. Les résultats principaux se situent dans ces deux dernières parties, qui sont respectivement les chapitres 4 et 5 de ce mémoire. Le code de l’algorithme et des expériences que nous avons créé pour ce mémoire se trouve sur notre github à l’adresse suivante : https://github.com/AldoLamarre/quantumcircuitlearning. / We present a new learning algorithm for quantum circuits based on gradient descent. Since this subject unifies two areas of research, we explain each field for people working in the other domain. Consequently, we begin by introducing quantum computing and quantum circuits to machine learning specialists, followed by an introduction of machine learning to quantum computing specialists. To give context and motivate our results we then give a light literature review on quantum machine learning. After this, we present our model, its algorithms and its variants, then discuss our currently achieved empirical results. Finally, we criticize our models by giving extensions and future work directions. These last two parts are our main results. They can be found in chapter 4 and 5 respectively. Our code which helped obtain these results can be found on github at this link : https://github.com/ AldoLamarre/quantumcircuitlearning.
57

Stochastic approximation and least-squares regression, with applications to machine learning / Approximation stochastique et régression par moindres carrés : applications en apprentissage automatique

Flammarion, Nicolas 24 July 2017 (has links)
De multiples problèmes en apprentissage automatique consistent à minimiser une fonction lisse sur un espace euclidien. Pour l’apprentissage supervisé, cela inclut les régressions par moindres carrés et logistique. Si les problèmes de petite taille sont résolus efficacement avec de nombreux algorithmes d’optimisation, les problèmes de grande échelle nécessitent en revanche des méthodes du premier ordre issues de la descente de gradient. Dans ce manuscrit, nous considérons le cas particulier de la perte quadratique. Dans une première partie, nous nous proposons de la minimiser grâce à un oracle stochastique. Dans une seconde partie, nous considérons deux de ses applications à l’apprentissage automatique : au partitionnement de données et à l’estimation sous contrainte de forme. La première contribution est un cadre unifié pour l’optimisation de fonctions quadratiques non-fortement convexes. Celui-ci comprend la descente de gradient accélérée et la descente de gradient moyennée. Ce nouveau cadre suggère un algorithme alternatif qui combine les aspects positifs du moyennage et de l’accélération. La deuxième contribution est d’obtenir le taux optimal d’erreur de prédiction pour la régression par moindres carrés en fonction de la dépendance au bruit du problème et à l’oubli des conditions initiales. Notre nouvel algorithme est issu de la descente de gradient accélérée et moyennée. La troisième contribution traite de la minimisation de fonctions composites, somme de l’espérance de fonctions quadratiques et d’une régularisation convexe. Nous étendons les résultats existants pour les moindres carrés à toute régularisation et aux différentes géométries induites par une divergence de Bregman. Dans une quatrième contribution, nous considérons le problème du partitionnement discriminatif. Nous proposons sa première analyse théorique, une extension parcimonieuse, son extension au cas multi-labels et un nouvel algorithme ayant une meilleure complexité que les méthodes existantes. La dernière contribution de cette thèse considère le problème de la sériation. Nous adoptons une approche statistique où la matrice est observée avec du bruit et nous étudions les taux d’estimation minimax. Nous proposons aussi un estimateur computationellement efficace. / Many problems in machine learning are naturally cast as the minimization of a smooth function defined on a Euclidean space. For supervised learning, this includes least-squares regression and logistic regression. While small problems are efficiently solved by classical optimization algorithms, large-scale problems are typically solved with first-order techniques based on gradient descent. In this manuscript, we consider the particular case of the quadratic loss. In the first part, we are interestedin its minimization when its gradients are only accessible through a stochastic oracle. In the second part, we consider two applications of the quadratic loss in machine learning: clustering and estimation with shape constraints. In the first main contribution, we provided a unified framework for optimizing non-strongly convex quadratic functions, which encompasses accelerated gradient descent and averaged gradient descent. This new framework suggests an alternative algorithm that exhibits the positive behavior of both averaging and acceleration. The second main contribution aims at obtaining the optimal prediction error rates for least-squares regression, both in terms of dependence on the noise of the problem and of forgetting the initial conditions. Our new algorithm rests upon averaged accelerated gradient descent. The third main contribution deals with minimization of composite objective functions composed of the expectation of quadratic functions and a convex function. Weextend earlier results on least-squares regression to any regularizer and any geometry represented by a Bregman divergence. As a fourth contribution, we consider the the discriminative clustering framework. We propose its first theoretical analysis, a novel sparse extension, a natural extension for the multi-label scenario and an efficient iterative algorithm with better running-time complexity than existing methods. The fifth main contribution deals with the seriation problem. We propose a statistical approach to this problem where the matrix is observed with noise and study the corresponding minimax rate of estimation. We also suggest a computationally efficient estimator whose performance is studied both theoretically and experimentally.
58

Apprentissage basé sur le Qini pour la prédiction de l’effet causal conditionnel

Belbahri, Mouloud-Beallah 08 1900 (has links)
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations. / Uplift models deal with cause-and-effect inference for a specific factor, such as a marketing intervention. In practice, these models are built on individual data from randomized experiments. A targeted group contains individuals who are subject to an action; a control group serves for comparison. Uplift modeling is used to order the individuals with respect to the value of a causal effect, e.g., positive, neutral, or negative. First, we propose a new way to perform model selection in uplift regression models. Our methodology is based on the maximization of the Qini coefficient. Because model selection corresponds to variable selection, the task is haunting and intractable if done in a straightforward manner when the number of variables to consider is large. To realistically search for a good model, we conceived a searching method based on an efficient exploration of the regression coefficients space combined with a lasso penalization of the log-likelihood. There is no explicit analytical expression for the Qini surface, so unveiling it is not easy. Our idea is to gradually uncover the Qini surface in a manner inspired by surface response designs. The goal is to find a reasonable local maximum of the Qini by exploring the surface near optimal values of the penalized coefficients. We openly share our codes through the R Package tools4uplift. Though there are some computational methods available for uplift modeling, most of them exclude statistical regression models. Our package intends to fill this gap. This package comprises tools for: i) quantization, ii) visualization, iii) variable selection, iv) parameters estimation and v) model validation. This library allows practitioners to use our methods with ease and to refer to methodological papers in order to read the details. Uplift is a particular case of causal inference. Causal inference tries to answer questions such as ``What would be the result if we gave this patient treatment A instead of treatment B?" . The answer to this question is then used as a prediction for a new patient. In the second part of the thesis, it is on the prediction that we have placed more emphasis. Most existing approaches are adaptations of random forests for the uplift case. Several split criteria have been proposed in the literature, all relying on maximizing heterogeneity. However, in practice, these approaches are prone to overfitting. In this work, we bring a new vision to uplift modeling. We propose a new loss function defined by leveraging a connection with the Bayesian interpretation of the relative risk. Our solution is developed for a specific twin neural network architecture allowing to jointly optimize the marginal probabilities of success for treated and control individuals. We show that this model is a generalization of the uplift logistic interaction model. We modify the stochastic gradient descent algorithm to allow for structured sparse solutions. This helps fitting our uplift models to a great extent. We openly share our Python codes for practitioners wishing to use our algorithms. We had the rare opportunity to collaborate with industry to get access to data from large-scale marketing campaigns favorable to the application of our methods. We show empirically that our methods are competitive with the state of the art on real data and through several simulation setting scenarios.

Page generated in 0.0807 seconds