AI立法进行时④:行业自治或伦理洗地陷阱?美国AI科技商参与制定“游戏规则”

最新信息

AI立法进行时④:行业自治或伦理洗地陷阱?美国AI科技商参与制定“游戏规则”
2023-08-14 17:43:00
2022年,生成式AI发展为人工智能发展注入一针强心剂,ChatGPT的横空出世,被视为通用人工智能的起点和强人工智能的拐点,引发新一轮人工智能革命。人工智能发展似乎找到了自己的主流叙事。
  不过,技术创新的同时也带来了监管难题,我们面对的不是近在咫尺的当下,而是想象触达不到的未来。对于颠覆性的人工智能技术,全球正在进行治理话语的竞赛,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?如何既拥抱技术发展,又能有效规制风险?之前南财合规科技研究院推出AI契约论系列报道以及《生成式人工智能发展与监管白皮书》,在此基础上,将继续推出AI立法进行时系列,以期为中国AI治理提供有益思路。
  人工智能自搭上AIGC的快车后一路疾驰。而远方,既有造福人类的光明憧憬,也伴随着伦理风险的波云诡谲。
  在美国,率先为这辆疾驰的快车铺上一层减速带的,是坐在驾驶座上的科技商们。
  今年以来,多家AI科技企业密集推出AI治理方案或奔走呼吁。例如,以马斯克为首的上千名人工智能专家、行业高管和相关学者呼吁暂停研发AI大模型;ChatGPT之父Sam Altman奔走全球呼吁共同探索治理方案;人工智能初创公司Anthropic公布“宪法AI”技术(Constitutional AI);谷歌推出了早期预警系统(An early warning system for novel AI risks)……
  “治理”在“颠覆”之前,成为了AI行业的关键词,AI科技商正在尝试从其中找到自己的立足之地。
  为何主动戴上“镣铐”?
  集体对AI发展失控敲响警钟的,除了监管机构,还有处于最前沿的美国科技厂商们。
  在人工智能如火如荼的势头上,马斯克、约书亚·本希奥、杰弗里·辛顿等上千名行业高管和专家签署公开信,呼吁在6个月内暂停高级人工智能的开发和训练,利用暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议。而OpenAI创始人Sam Altman则奔走全球呼吁共同探索治理方案,以迎接即将到来的AI风暴。
  人们之所以恐惧AI,在于看到了其来临前夜的混乱。Chatgpt爆火后短短数月,人们被AI的智能性、先进性震惊之余,也被迫面临随之而来一系列棘手的问题。
  一波又一波艺术家、文学家等将AI企业告上了法庭,控诉原因是其多年专业成果、知识积累被AI机器蚕食成为可复制的“模板”;电信诈骗改头换面,利用AI换脸拟声技术的诈骗事件在全国各地频频出现,一位男士在通过视频确认过“好友”身份后10分钟内被骗取了430万元......
  眼前的AI就像是一个潘多拉魔盒,站在前排的科技商人们更加清晰地见证了技术的一步步蜕变,即使如ChatGPT之父Sam Altman,也没有信心独自面对可能的风暴。5月中旬,Sam Altman站在美国听证会上呼吁政府加强对人工智能的监管,共同制定明确的规则和标准。而在此之前,包括微软、Adobe、IBM等多家AI科技公司的美国商业软件联盟(BSA)也发文呼吁政府在隐私立法中制定相关规则来规范人工智能。
  “AI技术发展已经超出人类预想,算法黑箱、生成AI被滥用等问题已经超出技术优化所能解决的问题范畴,而由政府牵头治理,可减轻企业的合规压力。”北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武向21世纪经济报道记者表示。
  同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋则指出,在合规义务边界尚不清晰的情况下,大型AI企业积极主动与政府、立法者进行沟通互动,实际上其主要目的在于探明合规的核心要求和底线。
  对于AI科技商来说,主动寻求监管的“镣铐”也有自身的商业考量。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,美国科技企业主动寻求监管有多方原因,一方面,整体人工智能伦理治理和监管话语的引导,使得越来越多的公众媒体和科技从业者关注AI治理,愈加明确其必要性。另一方面,生成式人工智能企业自身也希望能有相对确定预期的监管框架,依据其拓展商业化落地。
  “发展和治理未必存在矛盾。”同济大学法学院助理教授,上海人工智能社会治理协同创新中心助理研究员朱悦表示,以GPT背后的对齐模型和人类价值的RLHF技术为例,初看是一种治理方式,但也能显著提升模型性能。对于头部AI科技商来说,推进治理也是转化其发展优势的又一种渠道。
  一以贯之的市场机制与软法治理
  “美国联邦部门、各州政府、各级法院、公益组织、开源社区和主要科技商都在‘合纵连横’中做自己的事情。”朱悦谈到。
  据了解,美国目前没有任何一个机构或任何具体法律能够以整体方式管理人工智能,呈现“零碎式”监管。2022年10月,美国白宫发布了《人工智能权利法案蓝图》,为政府和行业使用人工智能制定了基于道德和公民权利的五项核心原则,以指导人工智能系统的设计、使用和部署。然而该蓝图是属于自愿型文书,并不构成美国的官方政策,不具法律效力。
  7月,美国政府召集美国七家AI头部公司齐聚白宫,并获得其自愿性承诺,包括加注水印帮助识别人工智能生成内容、促进第三方调查并报告系统中的安全漏洞、发布AI系统前由独立专家进行安全测试等措施。
  联邦机构亦动态频发,美国国家标准与技术研究院(NIST)在与私营和公共部门的合作下发布了《人工智能风险管理框架》,为有需求的各方提供可参考的AI风险管理框架,旨在帮助任何部署人工智能的组织评估风险并确定干预点。联邦贸易委员会(FTC)发布了关于其执法机构根据《FTC 法案》第5条适用于解决不公平或欺骗性人工智能广告索赔的指导意见,表示联邦贸易委员会将重点关注营销人员是否对人工智能产品做出虚假或未经证实的声明,例如夸大产品的技术能力、未经证实的断言人工智能产品优于没有人工智能的产品,或者产品是否使用人工智能。
  各州也纷纷走上了人工智能立法之路。加利福尼亚州、伊利诺伊州、德克萨斯州和科罗拉多州等州都在陆续推进,立法工作涉及面部识别技术、保险行业自动化决策、就业相关等问题。
  “从近期动向来看,美国仍然遵循一贯的监管理念,即以市场机制和企业自我规制为主导,辅之以政府的监管和软法治理。”张欣表示,虽然白宫等成立了一系列针对生成式人工智能的工作组,但至今尚未有实质性的进展,更多的仍然是通过企业自我承诺和自我规制的方式构建柔性的监管框架。
  伦理洗地陷阱?
  相比于美国相对宽容的态度,AI科技商们更早开始了自治的探索。多家AI科技企业密集推出AI治理方案,加快脚步主动给出行业答卷。
  今年5月,人工智能初创公司Anthropic公布“宪法AI”技术(Constitutional AI),即为语言模型提供明确的价值观,而不是依赖大规模人类反馈形式而提供的价值。
  谷歌推出了早期预警系统(An early warning system for novel AI risks),框架中的模型评估可用于发现通用人工智能模型中是否存在强大操纵、欺骗、网络攻击或其他危险能力等极端风险,将该模型评估纳入培训和部署一个通用模型的重要决策中,便于开发人员在评估过程中尽早识别风险,尽早做出部署。
  OpenAI和微软等公司也纷纷发文分享AI治理设想,7月26日,Anthropic、谷歌、微软和OpenAI 宣布成立前沿模型论坛(Frontier Model Forum),专注于确保前沿人工智能模型安全和负责任的开发。论坛表示,在未来一年将重点关注三个关键领域以支持前沿人工智能模型的安全和负责任的开发:确定最佳时间、推进人工智能安全研究、促进公司和政府之间的信息共享。
  朱悦指出,美国头部企业在治理方面已经走得比较远了,OpenAI和Meta几家的社会治理实验已经在进行,或者已完成一轮。之后将会看到这些企业越来越多地结合语言大模型,把全球各地个人纳入AI治理当中,比如找到几千上万个用户,然后直接对具体的治理问题加总出来一个答案或者方案。这个趋势也和欧盟平台、AI立法里一些多元治理的条款遥相呼应,在模型中解决价值层面的治理问题,在开源社区解决技术层面的治理问题,未来可能会是个普遍的趋势。
  “美国企业成立的内部治理体系,实际上具有多重效能。一方面,可在暂无明确政府监管的情况下积极构建自治体系,确保产业的有序运行。另一方面,可向政府传递监管信号,即企业可以通过自我承诺的方式有效控制AI风险。”张欣补充道,但自我治理也可能是一个陷阱,目前也有美国学者认为,科技企业积极寻求自我规制和伦理构建正在落入“伦理洗地陷阱( a trap of ethics-washing)”,这意味着科技企业通过构建伦理和自我规制反而分散了监管机关的注意力,使得监管议程未能如预期及时采取硬性监管措施,反而被软性的、毫无约束力的企业自我承诺所取代。
(文章来源:21世纪经济报道)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

AI立法进行时④:行业自治或伦理洗地陷阱?美国AI科技商参与制定“游戏规则”

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml