据国外媒体报道,AI创业公司Antropic近期面临艰难处境。该公司旗下AI产品Claude2.1推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。
问题的根源在于,Claude2.1严格遵循其发布的AI伦理宪法,在安全和道德判断上变得过于谨慎和守法。这导致Antropic在追求AI安全的过程中,不得不牺牲部分产品性能。
结果是,大量付费用户表达了强烈不满。他们纷纷在社交平台上抱怨Claude2.1“已经死了”,并表示准备取消订阅转而使用竞争对手ChatGPT。
业内人士指出,Antropic的困境再次凸显了创业公司在AI领域面临的两难。为确保AI安全严格自律无疑是正确的方向,但过度考量道德和法律后果可能让公司失去先机,并在日益激烈的竞争中处于下风。
Antropic自身也深感危机。但要在保持安全的同时又不失灵活性,对任何AI公司而言都是个难题。业内将进一步关注Antropic如何应对当前困境,并KEEP住那些正流向竞争对手的用户。