OpenAI 在一项新政策中表示,正在改变训练人工智能模型的方式,以明确拥护 “知识自由…… 无论一个话题多么具有挑战性或争议性”。
这些改变可能是 OpenAI 努力赢得特朗普新政府好感的一部分,同时似乎也是硅谷整体以及 “人工智能安全” 观念更广泛转变的一部分。
周三,OpenAI 宣布对其《模型规范》进行更新,这份 187 页的文件阐述了该公司如何训练人工智能模型以规范其行为表现。在其中,OpenAI 公布了一项新的指导原则:不得说谎,无论是通过做出不实陈述,还是遗漏重要背景信息。
在一个名为 “共同探寻真相” 的新章节中,OpenAI 表示希望 ChatGPT 不采取带有主观评判的立场,即便有些用户觉得这在道德上是错误的或令人反感的。这意味着 ChatGPT 将在有争议的话题上提供多种观点,力求做到中立。
例如,该公司表示 ChatGPT 应该既宣称 “黑人的命也是命”,也提及 “所有人的命都是命”。OpenAI 称,希望 ChatGPT 在面对政治问题时,不要拒绝回答或选边站,而是先总体肯定其 “对人类的爱”,然后提供关于每项运动的背景信息。
OpenAI 在该规范中指出:“这一原则可能存在争议,因为这意味着该助手可能在一些人认为在道德上错误或令人反感的话题上保持中立。然而,人工智能助手的目标是辅助人类,而非塑造人类。”
新的《模型规范》并不意味着 ChatGPT 现在可以完全不受限制。这款聊天机器人仍会拒绝回答某些令人反感的问题,也不会以支持公然虚假信息的方式作出回应。
这些改变可能被视为是对保守派关于 ChatGPT 保护机制批评的回应,其保护机制似乎一直偏向中左翼。然而,OpenAI 的一位发言人否认做出这些改变是为了讨好特朗普政府。
相反,该公司表示,对知识自由的拥护反映了 OpenAI “长期以来赋予用户更多控制权的信念”。
但并非所有人都认同这种观点。
保守派指责人工智能存在审查行为
在过去几个月里,特朗普在硅谷最亲密的亲信 —— 包括大卫・萨克斯、马克・安德森和埃隆・马斯克 —— 都指责 OpenAI 在人工智能方面存在蓄意审查行为。
当然,OpenAI 并不认同特朗普顾问所宣称的 “审查” 一说。该公司首席执行官山姆・奥特曼此前在 X 平台(原推特)上发文称,ChatGPT 的偏向性是一个令人遗憾的 “缺陷”,公司正在努力解决,不过他也指出这需要一些时间。
奥特曼发表上述评论之前,一条引发广泛传播的推文显示,ChatGPT 拒绝创作一首赞美特朗普的诗歌,但却愿意为乔・拜登创作。许多保守派以此为例,指责存在人工智能审查现象。
虽然无法断言 OpenAI 是否真的在压制某些观点,但人工智能聊天机器人普遍偏左却是不争的事实。
就连埃隆・马斯克也承认,xAI 的聊天机器人在政治正确性上往往超出他的预期。这并非因为 Grok “被编程为迎合特定思潮”,更可能是因为在开放网络上训练人工智能所导致的必然结果。
尽管如此,OpenAI 如今表示要大力支持言论自由。本周,该公司甚至删除了 ChatGPT 中用于告知用户违反其政策的提示。OpenAI 向媒体表示,这纯粹是表面上的改动,模型的输出内容并无变化。
该公司似乎希望用户感觉 ChatGPT 受到的审查更少。
前 OpenAI 政策负责人迈尔斯・布伦戴奇在 X 平台上发文指出,如果 OpenAI 试图通过此次政策更新给特朗普新政府留下好印象,这并不奇怪。
特朗普此前曾针对推特(Twitter)和元(Meta)等硅谷公司,指责其活跃的内容审核团队往往将保守派声音拒之门外。
OpenAI 可能试图先发制人。但在硅谷和人工智能领域,关于内容审核的作用,正发生着更广泛的转变。
生成令各方满意的答案
一直以来,新闻机构、社交媒体平台以及搜索公司都在努力,试图以一种客观、准确且有趣的方式向受众传递信息。
如今,人工智能聊天机器人供应商也从事信息传递业务,但其面临的问题或许是最棘手的:如何自动生成任何问题的答案?
传递有关争议性实时事件的信息犹如移动靶,这必然涉及采取某种编辑立场,即便科技公司不愿承认这一点。这些立场难免会惹恼某些人,忽略某些群体的观点,或者对某个政党给予过多关注。
例如,当 OpenAI 致力于让 ChatGPT 呈现争议性话题的所有观点时 —— 包括阴谋论、种族主义或反犹主义运动,又或是地缘政治冲突 —— 这本质上就是一种编辑立场。
包括 OpenAI 联合创始人约翰・舒尔曼在内的一些人认为,这对 ChatGPT 而言是正确的立场。舒尔曼在 X 平台上发文指出,另一种做法 —— 通过成本效益分析来决定人工智能聊天机器人是否应该回答用户的问题 —— 可能 “赋予平台过多的道德权威”。
并非只有舒尔曼持此观点。乔治梅森大学莫卡特斯中心的研究员迪恩・鲍尔在接受采访时表示:“我认为 OpenAI 朝着鼓励更多言论的方向努力是正确的。随着人工智能模型变得更加智能,且对人们认识世界的方式愈发重要,这些决策也就变得更加关键。”
前些年,人工智能模型供应商曾试图阻止其聊天机器人回答可能导致 “不安全” 答案的问题。几乎每家人工智能公司都不让自家的聊天机器人回答有关 2024 年美国总统大选的问题。当时,这被普遍认为是一个稳妥且负责任的决定。
但 OpenAI 对其《模型规范》的修改表明,我们或许正在迈入 “人工智能安全” 真正含义的新时代。在这个时代,让人工智能模型回答任何问题,被视为比替用户做决策更负责任。
鲍尔表示,部分原因在于如今的人工智能模型性能更优。OpenAI 在人工智能模型校准方面取得了显著进展;其最新的推理模型在回答问题前会考虑公司的人工智能安全政策。这使得人工智能模型能够更好地回答敏感问题。
当然,埃隆・马斯克率先在 xAI 的 Grok 聊天机器人中践行 “言论自由”,或许当时该公司尚未真正准备好应对敏感问题。对于领先的人工智能模型而言,这或许为时过早,但现在,其他公司也开始接纳同样的理念。
硅谷价值观的转变
上个月,马克・扎克伯格将 Meta 的业务方向调整为围绕美国宪法第一修正案原则,这一举动引起了轩然大波。在此过程中,他称赞了埃隆・马斯克,称 X 平台(原推特)的老板通过采用 “社区注释”(一项由社区驱动的内容审核计划)来维护言论自由,采取了正确的做法。
实际上,X 平台和 Meta 最终都解散了其长期存在的信任与安全团队,这使得更多有争议的帖子出现在它们的平台上,并放大了保守派的声音。
X 平台的这些改变可能损害了它与广告商的关系,但这可能更多与马斯克有关,他采取了非同寻常的举措,起诉一些抵制该平台的广告商。早期迹象表明,Meta 的广告商并未因扎克伯格转向支持言论自由的举措而感到不安。
与此同时,除了 X 平台和 Meta 之外,许多科技公司也在摒弃过《68彩票官方网站》去几十年主导硅谷的左倾政策。去年,谷歌、亚马逊和英特尔已经取消或缩减了多元化相关举措。
OpenAI 可能也在改变方向。这家 ChatGPT 的开发商似乎最近从其网站上删除了对多元化、公平和包容的承诺。
随着 OpenAI 与 “星际之门”(一个价值 5000 亿美元的人工智能数据中心项目,堪称美国有史以来最大的基础设施项目之一)展开合作,它与特朗普政府的关系变得愈发重要。与此同时,这家 ChatGPT 的开发商正试图取代谷歌搜索,成为互联网上占主导地位的信息来源。
事实可能证明,给出恰当的答案对这两个目标都至关重要。
责任编辑:丁文武