详细信息 位置: 首页 >> gpt人工智能  
 

隐私保护计算的五大关键技术

编辑:创泽      来源:华泰证券      时间:2023/5/22
 

—隐私保护计算具体涵盖了安全多方计算、联邦学习、同态加密、差 分隐私和机密计算等技术。隐私保护计算是一套包含人工智能、密码学、数据科学等众多 领域交叉融合的跨学科技术体系。它能够在不泄露原始数据的前提下,对数据进行加工、 分析处理、分析验证,其重点提供了数据计算过程和数据计算结果的隐私安全保护能力。

1 安全多方计算

安全多方计算(Secure Multi-Party Computation, SMPC)旨在解决“一 组 相互独立且互不信任的参与方各自持有秘密数据, 协同计算一个既定函数” 的问题。安全多方计算保证了各参与方在获得正确 计算结果的同时,无法获 得计算结果之外的任何信 息。

2 联邦学习

联邦学习(Federated Learning,FL),可被理 解为是由两个或两个以上 数据方共同参与,在保证数据方各自原始数据不出 其定义的安全控制范围的 前提下,协作构建并使用机器学习模型的技术架构。 通常情况下,联邦学习需与其它隐私保护计算技术 联合使用,才可在计算过程中实现数据保护。

3 同态加密

同态加密(Homomorphic Encryption,HE),是一 种允许在加密之后的密文上直接进行计算,且计算 结果解密后与基于明文的计算结果一致的加密算法, 可在不解密以实现数据机 密性保护的同时完成计算。 根据支持密文运算的程度, 同态加密方案可以分为部分同态加密方案和全同态加密方案两类。

4 差分隐私

差分隐私(Differential Privacy,D P),在保留统计学特征的前提下,去 除个体特征以保护用户隐私。差分隐私具有两个重要的优点:一是提出与背景知识无关的隐私保护模 型,实现攻击者背景知识最大化的假设;二是为隐 私保护水平提供严格的定义和量化评估方法。

5 机密计算

机密计算 ( Confidential Computing,CC),是指 通过在基于硬件的可信执行环境中执行计算来保护 数据应用中的隐私安全的技术之一。其基本原理是 将需要保护的数据和代码 存储在可信执行环境中, 对这些数据和代码的任何访问都必须经过基于硬件 的访问控制,防止他们在使用中未经授权被访问或 修改,从而提高机构管理敏感数据的安全水平。

 
【声明:转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考,如有侵权,请联系删除。】
 
推荐信息
全球各地区纷纷出台相关法律法规,例如中国的《中华人民共和国个人信息保护法》,欧盟 的《通用数据保护条例》,美国的《美国隐私法》
三星内部发生三起涉及ChatGPT误用与滥用案例;大利数据保护局在上月底对ChatGPT 涉嫌违反隐私规则展开调查
上海数据交易所在全国率 先提出数商概念,以数据交易为中心激活数据要素上下游产业链,将会进一步激活数据交易流通市场,提供更多样化的 数据产品
我国开始探索建立类似证券交易所形式的数据交易机构,截至 2022年11月,各地先后成立48家,仍有8家正在筹备建设中,将为国内大模型数据集发展注入新动力
数据要素产业包括数据的内部产生,流通交易,数据加工,行业应用等流程,企业通过在内部将数据清洗,预处理,加工等将数据变为数据产品
国家数据局 负责协调推进数据基础制度建设,推进数字基础设施布局建设,统筹数据资源整合共享和 开发利用,推进数字中国
数字中国建设按照2522”的整体框架进行布局,即夯实数字基础设施和数据资源体系两大基础,推进数字技术与经济,政治,文化,社会,生态文明建设五位一体深度融合
AI Challenger图像中文描述数据集包含 30 万张图片,150 万句中文描述,数据集包含人 类关键点检测(HKD),大规模属性数据集(LAD)和图像中文字幕(ICC)三个子数据集
 

gpt人工智能

 
 

迎宾机器人在楼梯处迎接客人
 
新动态