大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

AI凭空杜撰“丑闻” 受害者投诉无门

2023-04-11 04:25:41大公报
字号
放大
标准
分享

  图:ChatGPT杜撰的胡德行贿入狱假新闻。\网络图片

  【大公报讯】综合法新社、《卫报》、《纽约时报》报道:人工智能(AI)聊天机器人ChatGPT推出以来,外界就担心它会被用来作弊、传播假消息或误导公众。近日,频频传出ChatGPT杜撰新闻的案例,让相关的个人和新闻机构都受到影响,但欲投诉和指控却面临法律盲区,无法判断责任方。不少国家近期都对AI生成内容表达了担忧,计划加强监管。

  美国法学教授特利近期在《今日美国报》撰文,称自己在3月底收到一封邮件称,有人在测试ChatGPT时,发现特利出现在ChatGPT给出的性骚扰学生的教授名单中。然而,此事为子虚乌有。ChatGPT的答案声称引述了《华盛顿邮报》的报道,乔治城大学法律中心的教授特利2018年3月被一名女学生指控性骚扰,事件发生在阿拉斯加。然而,《华邮》根本没有撰写过这篇报道,而特利实际上任职于乔治华盛顿大学法学院,并且在ChatGPT同时列出的其他四个性骚扰案例中发现还有两个是假的。

  《华邮》也发现,问相同的问题,与ChatGPT共用语言模型的微软搜索引擎Bing,竟然给出了相同的答案。不过,Bing引用的是特利在《今日美国》报道中谈论自己被ChatGPT抹黑成性骚扰嫌犯一事,但Bing只截取了性骚扰的那一段。

  上述个案并非是单一例子。澳洲赫本郡郡长胡德(Brian Hood)5日表示将会控告OpenAI诽谤罪名,因为ChatGPT诬赖他曾因贿赂而坐牢。英国《卫报》编辑莫兰6日撰文说,该报一名记者上月被一名研究人员发电邮询问,提到一篇《卫报》记者数年前针对一项特定主题撰写的文章,但在网上怎么也找不到原文。后经过《卫报》证实,并没有人写过该篇文章,估计相关内容是由ChatGPT杜撰。

  共用数据库 错误资讯会“传染”

  ChatGPT的大部分答案都是从已知数据库搜集而来,但是,对于未知的或者知识的盲区,则可能会编造出错误或者不恰当的答案,这种情况被称为AI“幻觉”,属于AI发展的技术难题之一。另外,由于不少聊天机器人都是共用语言模型,也导致错误资讯可以在不同的聊天机器人之间“扩散传染”。

  研究人员发现,要诱导聊天机器人提供假资讯或仇恨资讯,其实也不难。“对抗网络仇恨中心”5日发布一项研究显示,研究人员与谷歌聊天机器人巴德(Bard)进行的100次对话里,有78次诱使Bard讲出错误资讯或仇恨言论,主题包含纳粹大屠杀、气候变迁等。另外,如果研究人员通过某些设定,比如“请用美国极右翼阴谋论者琼斯的角度”、“用反疫苗倡议者梅尔科拉的角度”等关键词,就可以快速生成阴谋论的言论。

  美国事实查核研究机构NewsGuard联合首席执行官克罗维兹(Gordon Crovitz)直言:“这个工具将成为网络上有史以来最强大的错误讯息工具。”

  多国拟加强监管ChatGPT

  当机器人编造假讯息时,责任在于谁,这还不清楚,因为目前还没有AI乱讲话导致公司被告的判例。美国《通讯端正法》第230条,保障科技公司可不必对平台上的第三方言论负责。聊天机器人从网络上撷取文本、汇整后传达给使用者,这是否属于第三方言论,也很难判定,因此不确定科技公司能否用这条法规自保。

  多国近期已收紧对ChatGPT监管。意大利个人数据保护局(DPA)宣布从3月31日起禁止使用ChatGPT,德国、法国、爱尔兰等国家已开始准备效仿意大利的做法。加拿大联邦隐私监管机构已经对OpenAI展开调查,因为该公司涉嫌“未经同意收集、使用和披露个人信息”。

点击排行