机读格式显示(MARC)
- 000 01714nam0 2200313 450
- 010 __ |a 978-7-121-38522-3 |d CNY89.00
- 100 __ |a 20200527d2020 em y0chiy50 ea
- 200 1_ |a 联邦学习 |A lian bang xue xi |d = Federated learning |f 杨强 ... [等] 著 |z eng
- 210 __ |a 北京 |c 电子工业出版社 |d 2020.4
- 215 __ |a xvi, 192页 |c 彩图 |d 24cm
- 304 __ |a 题名页题其余著者: 刘洋, 程勇, 康焱, 陈天健, 于涵
- 320 __ |a 有书目 (第161-192页)
- 330 __ |a 如何在保证本地训练数据不公开的前提下,实现多个数据拥有方协同地训练一个共享的机器学习模型?传统的机器学习方法需要将所有的数据集中到一个地方(例如,数据中心),然后再进行机器学习模型训练。但这种基于集中数据的做法无疑会严重侵害用户隐私和数据安全。如今,世界上越来越多的人开始强烈要求科技公司必须根据用户隐私法律法规来妥善地处理用户的数据,欧盟的《通用数据保护条例》是一个很好的例子。在本书中,我们将描述联邦学习(亦称联邦机器学习)是如何将分布式机器学习、密码学、基于金融规则的激励机制和博弈论结合起来以解决此类数据使用问题的。我们会介绍不同种类的面向隐私保护的机器学习解决方案以及技术背景,并描述一些典型的实际问题解决案例。我们还会进一步论述联邦学习将成为下一代机器学习的基础,可以满足技术和社会需求并促进安全的人工智能的开发和应用。
- 333 __ |a 计算机科学、人工智能和及其学习专业的学生,以及大数据和人工智能应用程序的开发人员阅读等。
- 510 1_ |a Federated learning |z eng
- 606 0_ |a 机器学习 |A ji qi xue xi
- 701 _0 |a 杨强 |A yang qiang |4 著
- 701 _0 |a 刘洋 |A liu yang |4 著
- 701 _0 |a 程勇 |A cheng yong |4 著
- 801 _0 |a CN |b 江苏新华 |c 20200522
- 905 __ |a LIB |d TP181/162