本文来自微信公众号: 碳基智子 ,作者:碳基智子
说实话,我没见过像Anthropic CEO Dario Amodei这样虚伪的人。
我当然知道,身为公众人物和企业高管,他的言论最终都是为自己的商业行为站台的。
就像罗永浩多年后回应自己当年说过的大话时,曾经非常坦诚:
他在生命的每个阶段,都说了他相信的东西,那你要他怎样。
但这句话,你好像很难放到Dario身上,因为他短时间内整活的频率和没活儿硬整的抽象度,真的是当前AI圈子里的独一份,对比之下爹味儿十足的奥特曼看起来都显得眉清目秀了。
细数一下吧:
批评DeepSeek、月之暗面、MiniMax对其Claude模型进行所谓的“蒸馏攻击”,并将其定性为非法窃取,甚至上升到郭安层面。
这简直是离谱。且不说蒸馏技术本身就是行业广泛使用的合理手段,这种动辄上升扣帽子的言论,有一点道路自信和自由皿煮吗?
而Anthropic自己发出的官方文章里,反而暴露了自己记录了所有的请求,以及这些请求的元数据、硬件特征,并且还和其他厂商的数据进行交叉共享。
这不妥妥地违反GDPR了?一个是蒸馏,合理且合法。一个是违法侵权,两者孰轻孰重,不言而喻。
另一个载入史册的双标case跟版权使用有关。Anthropic在模型训练早期,被曝出大规模从盗版网站下载受版权保护的图书用于训练数据,这导致后来需要与作家集体达成15亿美元的和解。
在这种背景下,它指责他人未经授权使用其模型输出、侵犯权利这类法律/伦理边界时,路过的龙虾都要发出一声嗤笑。
还有之前封禁OpenCode的举措,嘴上说得冠冕堂皇,实际上还是为了控制开发者工作流中所产生的全部数据。Anthropic犯了个大错
以上种种,我要是奥特曼我也不想跟他手拉手。
前两天我正好也看了一个Dario的专访,里面有些言论更是让我叹为观止。
摘录如下:
Dario早在2019年GPT-2阶段就看到了scaling laws的迹象,成功说服OpenAI领导层重视,但在安全理念上未能达成共识,最终离开创办Anthropic。
划重点:安全理念,指的是记录所有用户元数据,并与其他厂商交叉共享。
2022年ChatGPT发布前,Anthropic已有Claude的早期版本但选择不发布,为避免引发军备竞赛,代价是“可能让出了消费者AI的领先地位”。
这么好心,你信吗?
他还多次提到“我对权力集中感到不安”,给出的制衡方案是LTBT和政府监管。
这事儿颇有种有钱人骂资本主义的黑色幽默,因为当监管成本极高时,小公司会自然被挤出游戏,大公司天然地继续巩固优势。这在经济学里叫监管俘获(regulatory capture),受益者是谁?
Emm…上周刚看到川普在美国gov里ban掉Claude了。自绝于中,又被美所禁,这下里外里不是人了。
要不是Claude Code着实好用,我相信很多开发同学肯定也忍不了他。幸好,我没有什么写代码的需求,Claude我现在基本都不用了。
很多人对于Claude硬刚中美这件事颇为赞扬,认为Dario起码对中对美都是一样的态度,这种一致的立场让他人物弧光更加饱满了,我觉得这是不是有点太过美化他。
出门在外,身份是自己给的,不要太轻易相信那些企业家/政客/明星/作者,包括我这种小自媒体说的话。因为我们都在互联网上,立着各自的人设,玩着隔着屏幕的角色扮演。
所以回旋镖最终还是来了。
当年Dario在百度实习到底遭遇了什么!?
Robin!What can I say?
