联系人:
所在地:
1. 机器学习模型的准确性依赖于大量的数据集,数据集的大小直接影响了学习模型的准确性。通过整合多个用户的数据集,实现基于聚合数据集上的机器学习可以大大的提高机器学习模型的准确性。然而,用户的数据往往具有大量的隐私性。如用户的个人医疗数据、金融数据、公司人事信息等。直接将所有用户的数据集整合到一个数据中心的方式,带来了严重的数据隐私泄露风险。如果在保护用户数据隐私隐私的前提下,实现基于多用户数据集的机器学习模型训练具有重要的研究意义和应用价值。在该研究领域,以往的研究方法侧重于直接利用同态加密算法加密用户的数据集。同时,将非线性的激活函数转换为多项式函数的方法。利用全同态加密,实现了密文数据上的学习模型训练。然而,用户的数据集往往异常庞大,对整个数据集进行加密的实用性较低。如果提高保护隐私的多方机器学习的效率具有重要的研究价值。本论文利用了分布式梯度下降方法,结合加法同态加密以及聚合签名。利用云服务器,实现了多用户梯度参数的安全聚合。并且,聚合结果满足了可验证性。为安全、可验证的分布式机器学习研究提出了新的思路。 2. 在机器学习研究领域,数据具有重要的研究价值。数据量的大小和准确性直接影响了学习模型的优劣。然而,用户的数据中往往包含了大量的隐私数据。同时,基于大量的用户数据得到的机器学习模型本身也是重要的数据资产。如果在保护机器模型及用户数据隐私的前提下,实现基于密文数据的神经网络预测具有重要的研究意义。在该研究领域,以往的相关研究主要采用了全同态加密、混淆电路以及秘密分享等工具,利用全同态加密的同态性,实现了密文数据的预测。然而,全同态加密,混淆电路等工具的使用造成了协议的计算复度过高。尤其在处理大数据集时,该类算法的实用性大大降低。本论文在以往相关研究的基础上,进一步研究了基于加密数据的神经网络预测。在保护用户数据隐私的前提下,完成了高效的基于已有机器学习模型的预测,俣证了机器学习模型的隐私性。此外,算法依赖了两个非勾结服务器,实现了非交互式的神经网络预测,大大提高了用户的计算效率。算法利用了加法同态加密以及基于密文数据的比较协议,使得两个服务器在不与用户交互的情况下了神经网络计算。而对于神经网络模型的预测结果,方案利用了秘密分享保证了其隐私性。通过在MNIST数据集中对算法进行性能分析,证明了算法的高效性以及实用性。