ChatGPT应用爆火,安全的大数据底座何处寻?

597次阅读
没有评论

人工智能飞速发展的今天,好像哪个企业不参与就会被时代抛下。然而,AI运行的核心离不开海量的数据支持,其背后带来的数据安全问题令各行业担忧,建立数据安全防护墙迫在眉睫。本文作者对此进行了分析,希望对你有帮助。

ChatGPT应用爆火,安全的大数据底座何处寻?

毫无疑问,AIGC正在给人类社会带来一场深刻的变革。

而剥开其令人眼花缭乱的华丽外表,运行的核心离不开海量的数据支持。

ChatGPT的“入侵”已经引起了各行各业对内容抄袭的担忧,以及网络数据安全意识的提高。

虽然AI技术是中立的,但并不能成为规避责任与义务的理由。

最近,英国情报机构——英国政府通讯总部(GCHQ)警告称,ChatGPT和其他人工智能聊天机器人将是一个新的安全威胁。

尽管ChatGPT的概念出现没有多久,但对网络安全和数据安全带来威胁的问题已经成为业内关注的焦点。

对于目前还处于发展初期的ChatGPT,如此担忧是否杞人忧天?

一、安全威胁或正在发生

去年年底,初创公司OpenAI推出ChatGPT,之后,其投资商微软于今年推出了基于ChatGPT技术开发的聊天机器人“必应聊天(Bing Chat)”。

由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。

ChatGPT应用爆火,安全的大数据底座何处寻?

GCHQ的网络安全部门指出,提供AI聊天机器人的公司可以看到用户输入的查询内容,就ChatGPT而言,其开发商OpenAI就能够看到这些。

ChatGPT通过大量文本语料库进行训练,其深度学习能力很大程度上依赖于背后的数据。

出于对信息泄露的担忧,目前已有多家公司和机构发布“ChatGPT禁令”。

伦敦金融城律师事务所Mishcon de Reya禁止其律师将客户数据输入ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

国际咨询公司埃森哲警告其全球70万名员工,出于类似的原因,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手。

英国电脑芯片公司Arm的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入公司人员的身份信息或机密数据。

今年2月,摩根大通成为第一家在工作场所限制使用ChatGPT的华尔街投行。

花旗集团和高盛集团紧随其后,前者禁止员工在整个公司范围内访问ChatGPT,后者则限制员工在交易大厅使用该产品

而在更早些时候,亚马逊和微软为防备员工在使用ChatGPT的过程中泄密,禁止他们向其分享敏感数据,因为这些信息可能会被用作进一步迭代的训练数据。

事实上,这些人工智能聊天机器人背后是大型语言模型(LLM),用户的这些查询内容将会被存储起来,并且会在未来某个时候被用于开发LLM服务或模型。

这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。

另外,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。

此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。

因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。

在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现出暴涨趋势。

在ChatGPT火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。

事实上,人工智能被用户调教“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,其就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见,只好被下线结束了短暂的生命。

另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。

二、AI应用要打好安全底座

ChatGPT作为大语言模型,其核心逻辑事实上是海量数据的收集、加工、处理和运算结果的输出。

总的来说,这几个环节可能会在技术要素、组织管理、数字内容三个方面伴生相关风险。

虽然ChatGPT表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但在未来可能出现网络攻击和数据爬取等现象,仍存在不可忽视的数据安全隐患。

特别是涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等过程,需平衡数据安全保护与流动共享。

除了数据与隐私泄露隐患外,AI技术还存在着数据偏见、虚假信息、模型的难解释性等问题,可能会导致误解和不信任。

风口已至,AIGC浪潮奔涌而来,在前景向好的大背景下,关口前移,建立数据安全防护墙也至关重要。

尤其是当AI技术逐渐完善,它既能成为生产力进步的有力抓手,又易沦为黑产犯罪的工具。

奇安信威胁情报中心监测数据显示,2022年1月份-10月份,超过950亿条的中国境内机构数据在海外被非法交易,其中有570多亿条是个人信息。

因此,如何确保数据存储、计算、流通过程中的安全问题,是数字经济发展的大前提。

从整体看,应该坚持顶层设计与产业发展齐头并进,在《网络安全法》的基础上,要细化风险与责任分析体系,确立安全问责机制。

同时,监管部门可开展常态化监查工作,安全领域企业协同发力,构建全流程数据安全保障体系。

对于数据合规和数据安全的问题,特别是在《数据安全法》推出后,数据隐私越来越重要。

如果在应用AI技术的过程中无法保证数据安全和合规,可能会给企业造成很大风险。

特别是中小企业对数据隐私安全方面的知识比较匮乏,不知道应当如何保护数据不会受到安全威胁。

数据安全合规并不是某个部门的事情,而是整个企业最为重要的事情。

企业要对员工进行培训,让他们意识到每个使用数据的人,都有义务保护数据,包括IT人员、AI部门、数据工程师、开发人员、使用报表的人等,人和技术要结合在一起。

面对前述潜藏风险,监管方和相关企业如何从制度和技术层面加强AIGC领域的数据安全保护?

相较于直接针对用户终端采取限制使用等监管措施,明确要求AI技术研发企业遵循科技伦理原则会更具成效,因为这些企业能够在技术层面限定用户的使用范围。

在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度。

例如,可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中的数据进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。

在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制。

目光投向企业,还需加快推动“隐私计算”技术在AIGC领域的应用。

这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。

此外,全流程合规管理的重要性愈加凸显。

企业首先应关注其所运用的数据资源是否符合法律法规要求,其次要确保算法和模型运作的全流程合规,企业的创新研发还应最大限度地满足社会公众的伦理期待。

同时,企业应制定内部管理规范,设立相关的监督部门,对AI技术应用场景的各个环节进行数据监督,确保数据来源合法、处理合法、输出合法,从而保障自身的合规性。

AI应用的关键在于部署方式与成本间的考量,但必须注意的是,如果没有做好安全合规、隐私保护,对企业来说或将蕴含“更大风险点”。

AI是把双刃剑,用得好让企业如虎添翼;用不好疏忽了安全、隐私和合规,会给企业带来更大损失。因此,在AI应用前,需要构筑更加稳固的“数据底座”,正所谓,行稳方能致远。

本文由@科技云报到 原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

提供信息存储空间服务。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy