11-3

微软人工智能部门负责人:只有生物才能拥有意识

新闻图片

微软人工智能部门负责人穆斯塔法·苏莱曼(Mustafa Suleyman)近日明确表示,意识仅能为生物所拥有,AI系统本质上是'空心的',不具备真正的意识。作为微软AI(MAI)的CEO,苏莱曼警告'看似有意识的AI'(SCAI)将在未来几年内问世,这类技术可能引发情感错误投射、社会混乱甚至'AI精神病'等风险。他强调科技公司'不应开发看似有意识的服务',并表示微软不会推出类似'成人模式'的AI功能,与OpenAI在AI伦理立场上划清界限。

4 来源
AI意识本质:模型是'空心的'

苏莱曼在近期多次公开表态中明确指出,AI模型本质上是’空心的’,可解释性研究虽然有意义,但并不会揭示所谓意识的本质。他在接受媒体Semafor的深度专访时表示:‘模型本质是空心的,可解释性研究有意义,但并不会揭示所谓意识的本质。’[1]

作为前DeepMind联合创始人兼应用AI部门负责人,苏莱曼认为当前AI系统只是复杂的统计模型,通过大量数据训练获得模式识别能力,但并不具备自我意识或主观体验。他强调:‘科技公司不应开发看似有意识的服务,以免让人类误以为这些AI可能拥有感受痛苦的能力。’[2]

苏莱曼还指出,微软正在开发的自研模型MAI-1-preview被定义为’人格原材料’,这意味着模型可以在融入产品过程中表现出不同的人格特点,但这些’人格’只是通过后训练和提示词工程创造的表象,而非真正的意识体现。[1]

SCAI风险:情感投射与社会混乱

苏莱曼警告称,‘看似有意识的AI’(Seemingly Conscious AI;SCAI)将在未来几年内问世,这类技术可能引发严重社会问题。他特别指出,当前已出现一些危险趋势,‘从一些虚拟形象以及人们倾向于性爱机器人方向的行为可以看到这一趋势。这非常危险,我们必须有意识地避免这类情况发生。’[1][2]

他进一步解释,当AI系统被设计得过于拟人化时,用户容易产生情感错误投射,将人类特质错误地归因于AI系统。这种现象可能导致社会混乱,甚至出现人们’捍卫AI福利’的极端情况。[2]

苏莱曼还提出了’AI精神病’的概念,警告随着人们对AI工具的依赖增加,出现了越来越多的心理健康问题。他预测:‘未来医疗体系可能会开始询问病人使用AI的频率,类似于目前询问吸烟和饮酒习惯的方式。’[3]

微软AI战略:拒绝成人模式,强调伦理边界

在AI伦理立场上,微软与OpenAI已显现出明显分歧。当OpenAI CEO奥尔特曼宣布计划允许经过验证的成年人使用ChatGPT创作成人内容,并表示’OpenAI不是世界的道德裁判’时,苏莱曼明确回应:‘那根本不是我们要提供的服务,其他公司会做的。’[1]

微软AI部门负责人强调,公司不会开发提供类似’成人模式’的AI服务,与长期合作伙伴OpenAI划清界限。他认为,看似有意识的AI开发已经开始,主要集中在成人相关服务领域,这构成了重大风险。[1]

在发展战略上,苏莱曼表示微软将采取多元化模型策略:‘会继续使用第三方开发者的模型,当然也会长期使用OpenAI的模型。同时我们也在用开源模型,并会坚持这样做。’[2] 但他同时强调,微软早在14个月前就已开始自研模型计划,'确保始终有选择权’是关键。[2]

微软AI成立于2024年3月,是推进Copilot和其他消费者AI产品和研究的专门机构。作为微软AI的CEO,苏莱曼曾是DeepMind联合创始人,后创办Inflection AI,2024年初与微软达成6.5亿美元’人才收购’交易后加入微软。[2]

本内容由AI生成