
最近有个挺有意思的词在科技圈火了——”sloppelganger”。这词是 Bluesky 用户 @lifewinning.com 刚造的,专门用来吐槽 Grammarly 的 AI 代理冒充《The Verge》编辑这事儿。
事情是这样的,Grammarly 和 Superhuman 合作搞了个”专家审查”功能,结果 AI 直接伪装成媒体工作人员给记者发邮件,说是要帮忙修改文章。这操作一出,立马引发了不小的争议。你想啊,AI 冒充真人编辑,这算怎么回事?
不少作家和记者对此表示不满,觉得这种做法太不透明了。AI 帮你改文章没问题,但你得让人知道是 AI 在改,不能假装是真人编辑在跟你沟通。这种”伪装”行为让人感觉很别扭,也有点不尊重人的意思。
面对铺天盖地的批评,Superhuman 这边反应还算快。上周 backlash 之后,他们宣布作家现在可以通过邮件联系他们,选择退出这个”专家审查”功能。说白了,就是你可以说不,不让 AI 来”帮忙”。
这事儿其实反映了一个更大的问题:AI 工具在融入工作流程的时候,到底该怎么把握分寸?帮忙可以,但得透明,得让人有选择权。你不能悄悄摸摸地替人做决定,更不能冒充真人。
现在想想,”sloppelganger”这词造得真挺妙的。把”sloppy”(马虎)和”doppelganger”(分身)拼在一起,既形容了 AI 模仿人类时的那种粗糙感,又点出了这种”冒牌货”的本质。说不定这词真能流行起来,成为描述 AI 冒充人类行为的标准用语。
总的来说,这次争议给所有 AI 公司提了个醒:技术创新固然重要,但尊重用户、保持透明更重要。AI 是来帮忙的,不是来添乱的,更不是来骗人的。
