PS: Scaling Distributed Machine Learning with the Parameter Server 2021-06-18 4.6k- 16m作者提出了第三代参数服务器的开源实现,采用异步的通信模型,灵活的一致性模型,以平衡系统效率和算法收敛的速度。另外提供了弹性的扩展性和容错,在处理数10亿级别的数据仍有很高的效率。 Paperparameter server