顶象学院首页>文章详情

ChatGPT们不仅带来新风险,更加剧社会的马太效应

2023-03-23|小象 3168

近两周,AI频频占据头条。

“用三秒完成我一天的活。”ChatGPT为中国众多的小型、产业链分布绵长的跨境电商企业降低了获得定制化方案的成本。许多商家相信,ChatGPT还能处理大量的财务报表和数据分析模型,这也广大跨境电商不需要再花钱聘请外部开发机构,建个小程序、做个客服机器人等小型需求可以通过GPT-4的全场景应用来实现,跨境卖家有望通过ChatGPT降低人力和资本成本。

先是ChatGPT升级到GPT-4,功能变得更强大;随后微软在office中引入最新的GPT-4,给办公带来新变化;紧接着百度发布文心一言,引发广泛热议;就在前天,著名的AI绘画工具Midjourney也更新了最新版本,逼真形象的生成效果让人惊呼“可怕”。

据媒体报道,很多AI艺术生成图像无法正确渲染手部,例如,可能会出现7-10个手指的情况,而Midjourney v5能够很好地生成逼真的人手。国外有网友直接用Midjourney V5画出了The Matrix的电影质感,让人怀疑是电影里的截图;国内有网友试玩,直接画出了一对中国情侣,视觉碾压人类画师。

AI应用已经来到我们身边,与此同时,新风险也在悄然降临。

ChatGPT们带来的新风险

科技是发展的利器,也可能成为风险的源头。随着AI应用的门槛降低,被不法者利用后,ChatGPT、Midjourney带来的风险才刚刚开始。

合成假文章。在美国纽约从事销售工作的布雷特·希克勒利用ChatGPT,在数小时内写出了一本30页带插图的儿童电子书《聪明的小松鼠:储蓄和投资的故事》,这本书于1月通过亚马逊自营网站发售,目前已帮他赚了上百美元。今年2月份,知名科幻杂志《 Clarkesworld Magazine》宣布,由于近期收到大量由ChatGPT生成的科投稿,决定暂时关闭投稿渠道。《 Clarkesworld Magazine》杂志编辑 Neil Clarke 表示,近期收到了大量由 ChatGPT生成的科幻故事投稿,“2022年10月有25篇,到了今年1月达到100篇,2月份竟然收到500篇”。ChatGPT正威胁“真正的”作家的营生,随之而来的抄袭、大量低质内容泛滥等问题引起关注。

合成假视频。2020年9月,女演员艾玛·沃特森Emma Watson的30秒换脸视频在色情网站上播放超过2300万次。不法分子将AI换脸技术用于色情传播,女明星是“重灾区”。通过深度伪造技术,还可以实现视频/图像内容中人脸的替换,甚至能够通过算法来操纵替换人脸的面部表情。

生成假新闻。2月17日,网络疯传一条关于杭州市政府3月1号取消限行的“新闻”。真相是:杭州某小区业主群讨论ChatGPT,一位业主开玩笑说尝试用它写篇杭州取消限行的新闻稿,随后在群里直播了使用ChatGPT的写作过程,还把文章发在群里。有些业主不明就里,截图转发,导致失实信息被广泛传播。

制造假资料。由于ChatGPT能够产出高质量的人类口语文本,其可被用来进行网络欺骗,比如通过写出看上去合法的电子邮件内容来实施财产诈骗,通过制造假的政策文件、政府公文来进行信息欺诈。其核心是按照使用者要求自动模仿有固定模式的文本内容。例如,利用AI生成虚假的照片、虚假证件、虚假公司网站、虚假流水账单、虚假招商文件等。

生成假文案。某个博主在写道,用ChatGPT写XXX(某社交媒体)文案,又快又好。以前我写一篇笔记,构思,打草稿,排版至少需1个小时。在ChatGPT的帮助下,20分钟就能创作一篇有质量的文章,效率提升了3倍。在社交平台的席卷下,人人皆可创作,内容的庞杂与劣质、传播的失真与不确定性,都一再被诟病,AI的高效率会让信息池更加杂乱。

“一本正经地胡说八道”。今年1月,一位中国网友因为导师要与他讨论ChatGPT的话题,于是让ChatGPT写几篇论文看看。结果,ChatGPT“编造了三篇论文,标题作者概要啥都有,看上去跟真的似的”。最后,ChatGPT承认了这几篇论文都是假的。今年2月,另一名网友想通过ChatGPT查询文献资料,也遭遇假论文。他发微博表示:“我想要查的研究方向都有文献证据,提到具体文献给我编提供不了DOI但有作者和期刊页码信息,一查好家伙全是假的。”有网友让ChatGPT背一下大家熟知的《观沧海》这首诗,谁知道它并没有回答曹操的那首著名的诗,而是自己即兴创作了一首。也有人让ChatGPT做一道小学数学题,它却写出了一长串极其复杂的计算过程,而最后给出的却是错误答案。

ChatGPT不仅存在事实性错误、知识盲区和常识偏差等诸多问题,还有面临训练数据来源合规性、数据使用的偏见性、版权盗用等人工智能通用风险。

AI带来三方面伦理风险

“'智人借助GPT升级为半智神,有没有GPT加持,以后就是两个物种了”,技术创业者大川如实说。善用人工智能工具的技术人员,生产效率和速度将大幅提高,而无法使用工具的技术人员效率相比较更低,由此加剧马太效应,让强者愈强、弱者愈弱。

所以,AI应用是一把“双刃剑”,对现有社会结构及价值观念的冲击亦愈发明显,对人类社会的尊严、公平、正义等价值观带来新的挑战。

一是带来人工智能新的偏见与歧视。AI是由研发人员价值观念支配下设计开发出来的,容易受研发者秉持的价值观念影响。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等。马太效应的推动下,会优先提升获得人工智能加持人群的生产能力和收益,反之亦然,影响社会发展的公平性。

二是滥用人工智能带来的道德风险。用AI制作假新闻、假消息、假账号、假声音、假图片所带来的社会问题越来越多。这一切都是人工智能滥用带来的风险。

三是人工智能带来新的法律纠纷。类似ChatGPT是在大量不同的数据集上训练出来的大型语言模型,使用受版权保护的材料来训练人工智能模型,可能导致该模型在向用户提供回复时过度借鉴他人的作品,从而引起著作权纠纷。此外,使用者在输入请求时,输入与已识别或者可识别的自然人有关的各种信息,容易造成商业秘密泄露,违背保密义务。

国际上对于AI的规范

技术界越来越关注AI带来公平问题。全球AI顶级峰会IJCAI、NeurIPS、AAAI上出现了越来越多的AI伦理论文,话题范围涉及AI可解释性、安全人工智能、隐私与数据收集、公平与偏见等。而在近20年以来各个大型AI会议上提及伦理关键字的论文标题的数量都在逐年增加。

牛津大学学者Luciano Floridi和Josh Cowls在2019年哈佛数据科学评论杂志上发表的文章中提出了如今被学术界广为认可的AI伦理五原则:行善、不伤害、自治、正义以及算法可解释性。其中,前四项由传统的生物伦理原则沿用而来,最后一项则是针对人工智能算法而提出的新原则。

2019年4月,欧盟委员会发布了正式版的AI道德准则《可信赖人工智能的伦理准则》,提出了实现可信赖人工智能全生命周期的框架。该准则提出,可信赖人工智能需满足3个基本条件:

合法的,即系统应该遵守所有适用的法律法规。合伦理的,即系统应该与伦理准则和价值观相一致。稳健的,不管从技术还是社会的角度来看,人工智能系统都可能会造成伤害。

对于人工智能从业者,该准则包含四项道德原则:

尊重人的自主性:人类与人工智能系统之间的功能分配应遵循以人为本的设计原则,并为人类选择留下有意义的机会。

防伤害:人工智能系统及其运行的环境必须安全可靠,确保不会被恶意使用。弱势群体应得到更多关注。还必须特别注意人工智能系统可能由于权利或信息不对称而导致或加剧不利影响的情况。

公平性:人工智能系统的开发、部署和使用必须是公平的,公平体现既有实质性的也有程序性的。

可解释性:可解释性对于建立和维护用户对AI 系统的信任至关重要,流程需要透明、人工智能系统的能力和目的需要公开沟通、并且决策(在可能的范围内)可以向直接和间接受影响的人解释。有时候,解释为什么一个模型产生了一个特定的输出或决策并不总是可能的。这些情况被称为“黑盒”算法,在这些情况下,需要其他可解释性措施,例如,系统功能的可追溯性、可审计性和透明通信等。

中国AI伦理立法稳步推进

2017年7月,我国发布了《新一代人工智能发展规划》。规划提到,不仅要重视人工智能的社会伦理影响,而且要制定伦理框架和伦理规范,以确保AI安全、可靠、可控发展。

2018年1月,在国家人工智能标准化总体组的成立大会上发布了《人工智能标准化白皮书2018》。白皮书论述了人工智能的安全、伦理和隐私问题,认为人工智能技术需遵循的伦理要求设定要依托于社会和公众对人工智能伦理的深入思考和广泛共识上,并遵循一些共识原则。

2019年2月,科技部在北京召开新一代人工智能发展规划暨重大科技项目启动会,成立了新一代人工智能治理专业委员会。

2021年9月,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。

一是增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。

二是促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。

三是保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。

四是确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。

五是强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。

六是提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

技术与伦理如何相辅相成

一项新技术从研发到进入市场,再到融入社会生产、生活,产生风险是难以避免的,不能因为风险而放弃新技术的研发和应用。理想目标应是把风险最小化,把技术获利最大化。这就要求法律和政策做到规制与保障并重。要通过法律与政策手段解决人工智能引发的风险,实现有序发展;同时,要确保AI创新发展,更好赋能经济社会。不过,规制与保障之间可能存在价值冲突,规制不当可能扼杀人工智能的创新发展,必须审慎地处理好二者之间的关系。

欧盟在规范AI伦理问题上下手早,但其过度监管也给相关市场的发展带来了限制,造成欧盟在数字产业的发展上全面落后于全球。在全球技术主权激烈竞争的背景下,立法与监管政策需要保持谨慎思考,在治理与发展之间做好平衡,在方便企业满足AI伦理风险的同时,为企业、行业以及相关产业提供充分的发展空间。

为了降低AI伦理执法的难度,一些国家针对特定部门和高风险应用场景单独立法。如许多国家把人工智能系统在医疗领域中应用列为需要关注的场景,在这些领域中,算法产生的结果将直接关乎人类的生命福祉。按照针对不同风险等级制定不同严苛程度的管理思路,可以通过分场景监管,做到有收有放,进而实现治理与发展的平衡。

在规范手段上,应根据AI应用产生风险的原因,有针对性地采用不同规范手段。对滥用人工智能技术引发的风险,则要依靠硬性约束。硬性约束规定明确,可操作性强,能够为人们如何行为提供具体指引,并且有强制力保障。在规范方式上,强化政府与企业治理协同,相辅相成,相互保障。

加入社群

扫码进群领
【业务安全】资料礼包

在线咨询
400-878-6123