Published April 25, 2023
| Version v1
Conference paper
High-Dimensional Private Empirical Risk Minimization by Greedy Coordinate Descent
Contributors
Others:
- Machine Learning in Information Networks (MAGNET) ; Centre Inria de l'Université de Lille ; Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189 (CRIStAL) ; Centrale Lille-Université de Lille-Centre National de la Recherche Scientifique (CNRS)-Centrale Lille-Université de Lille-Centre National de la Recherche Scientifique (CNRS)
- Institut Montpelliérain Alexander Grothendieck (IMAG) ; Centre National de la Recherche Scientifique (CNRS)-Université de Montpellier (UM)
- Institut universitaire de France (IUF) ; Ministère de l'Education nationale, de l'Enseignement supérieur et de la Recherche (M.E.N.E.S.R.)
- Scientific Data Management (ZENITH) ; Centre Inria d'Université Côte d'Azur (CRISAM) ; Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire d'Informatique de Robotique et de Microélectronique de Montpellier (LIRMM) ; Centre National de la Recherche Scientifique (CNRS)-Université de Montpellier (UM)-Centre National de la Recherche Scientifique (CNRS)-Université de Montpellier (UM)
- ANR-20-CE23-0015,PRIDE,Apprentissage automatique décentralisé et préservant la vie privée(2020)
- ANR-20-CHIA-0001,CAMELOT,Apprentissage automatique et optimisation coopératifs.(2020)
- ANR-22-PECY-0002,iPoP,interdisciplinary Project on Privacy(2022)
Description
In this paper, we study differentially private empirical risk minimization (DP-ERM). It has been shown that the worst-case utility of DP-ERM reduces polynomially as the dimension increases. This is a major obstacle to privately learning large machine learning models. In high dimension, it is common for some model's parameters to carry more information than others. To exploit this, we propose a differentially private greedy coordinate descent (DP-GCD) algorithm. At each iteration, DP-GCD privately performs a coordinate-wise gradient step along the gradients' (approximately) greatest entry. We show theoretically that DP-GCD can achieve a logarithmic dependence on the dimension for a wide range of problems by naturally exploiting their structural properties (such as quasi-sparse solutions). We illustrate this behavior numerically, both on synthetic and real datasets.
Abstract
International audienceAdditional details
Identifiers
- URL
- https://inria.hal.science/hal-03714465
- URN
- urn:oai:HAL:hal-03714465v3
Origin repository
- Origin repository
- UNICA