周三,知名记者 Julia Angwin 把 Grammarly 告了。原因挺有意思:Grammarly 的 AI 功能”Expert Review”在未经同意的情况下,用了她的身份来给用户提供写作建议。
这事是 Casey Newton 先爆出来的。他发现自己名字出现在 Grammarly 的 AI 建议里,顺藤摸瓜发现不止他一个人被”安排”了。The Verge 测试这个功能时,也发现自己主编 Nilay Patel 和其他几位同事的名字被挂在 AI 生成的建议旁边。

Julia Angwin 这次提起的是集体诉讼。她在诉状里说,Superhuman(Grammarly 母公司)侵犯了她的隐私权和公开权,违反了禁止未经同意使用他人身份进行商业用途的法律。说白了,就是拿人家的名字和声誉给自己的产品背书,还没打招呼。
事情发酵后,Superhuman 的反应还算快。CEO Shishir Mehrotra 在 LinkedIn 上发了道歉声明,说这个 AI 代理的初衷是帮助用户发现有影响力的观点,同时为专家提供与粉丝建立联系的机会。”我们听到了反馈,承认在这方面做得不够好。我想道歉,并承认我们会重新思考未来的方法。”
公司已经宣布禁用这个功能。之前他们还搞了个邮件订阅,让作家和学者可以申请退出,但现在看来这已经不够了。
说实话,这事挺典型的。AI 公司为了训练模型或者搞新功能,经常踩线。这次是直接用真人身份,下次可能是用别人的文章、图片,甚至是声音。界限在哪?好像没人说得清。
从用户角度看,打开一个写作工具,看到”根据 Julia Angwin 的观点建议”,可能会觉得这建议更可信。但对 Julia 本人来说,自己的名字被拿来当营销工具,还没经过同意,换谁都不舒服。
这件事给所有 AI 公司提了个醒:技术创新不能以牺牲个人权利为代价。你要是真觉得某个专家的观点有价值,那就正儿八经去联系人家,谈合作,给报酬。偷偷摸摸用别人的身份,迟早要出事。
目前诉讼还在进行中,但 Superhuman 已经把功能关了。接下来会不会有更多人加入诉讼?赔偿金额会是多少?这些都还不知道。但可以肯定的是,AI 行业在”借用”他人内容这件事上,得好好想想什么能做、什么不能做了。
