本文来自微信公众号: 触乐 ,作者:等等,原文标题:《让AI融入游戏剧情和玩法,怎样才能少走弯路?丨触乐》
与其争论如何阻挡人工智能时代的到来,不如进行一些更有建设性的对话。
在刚刚过去的2025年,生成式AI已经渗透主流游戏圈,但它并没有为游戏增光添彩,反而导致大量游戏陷入泥潭。AI在搜打撤多人射击游戏《Arc Riders》中读错台词,在《纪元117:罗马和平》的加载界面“画”了一张劣质图像,在《堡垒之夜》里为满口脏话的达斯·维达配音。与这些案例相比,另一些游戏运用生成式AI的方式似乎更克制,只是将一些不那么重要的NPC角色接入了AI聊天机器人。但玩家们很快发现,AI生成的大部分角色对话平淡无奇,有时甚至荒谬可笑。
许多玩家对“游戏内Siri”的概念嗤之以鼻。在海外社交平台上,有玩家在一条高赞评论中写道:“如果你用一款游戏来与聊天机器人互动,而不是体验真人精心创作的故事,那简直愚蠢至极。”但也有人提出完全相反的意见,认为AI聊天机器人能帮助开发者创造“真正可以互动的NPC”。
随着时间推移,玩家们很可能会在更多游戏里遇到聊天机器人。在这股似乎势不可挡的浪潮下,游戏叙事将会受到哪些影响?如果经过更精心的引导和约束,生成式AI能否让游戏世界变得更鲜活,从而为玩家提供更具沉浸感的体验?这项技术能否带来新的机遇,未来将会如何发展?那些专注于制作叙事向游戏的工作室又应该如何应对?5位资深游戏从业者与相关领域专家分享了对这些话题的看法。
“游戏内Siri”让游戏体验变好了吗?
梅格·贾延特(Meg Jayanth)是一位知名编剧兼叙事设计师,曾参与制作《80天》《Sable》和《Thirsty Suitors》等游戏。贾延特认为,目前,聊天机器人生成的对话听起来“既糟糕又无聊”。她直言,在电子游戏的程序化生成领域,基于大语言模型(LLM)的聊天机器人是“最无趣、最耗费资源,最受企业控制的版本”。
对某些玩家而言,聊天机器人更像具有“新奇价值”的玩具。按照贾延特的说法,虽然聊天机器人能够回答玩家提出的任何问题,但这其实“弊大于利”,因为游戏不可能赋予玩家无限自主权,而是会“以令人愉悦或契合主题的有趣方式来设计自主性”。
“玩家并不是什么事都可以做,什么话都能说,这些限制恰恰传达了游戏的世界观和故事对于玩家的意义。而当聊天机器人说话时,它并没有任何真实意图。”在贾延特看来,人与人之间的联系是艺术作品的内在组成部分之一。“我为你创作了一些东西,尽管我们并不相识。在你游玩、阅读、聆听和体验的过程中,你无需了解我,就能感受到我的性格。”她解释,“因此,除了极少数特殊情况——即这项技术的优势和缺陷成为叙事或主题构思的一部分——我认为LLM聊天机器人在虚构作品中没有立足之地。”
这仅仅是问题的冰山一角。贾延特描述了使用生成式AI和聊天机器人可能带来的诸多伦理问题:例如,数据中心会对交互造成影响,用户与“企业控制的聊天机器人分享生活细节”的行为背后潜藏着隐私风险。如果创作者无偿使用个人作品训练大语言模型,那么他们的劳动果实最终可能被夺走。此外,“在信息环境支离破碎、被严重污染、政治化且充满错觉的当下”,聊天机器人的AI幻觉或许会导致“我们距离真相越来越远”。
“我认为问题很简单:我们究竟想生活在一个充满生机的世界,还是一个死气沉沉的世界?”贾延特说,“我们都渴望与自然、与彼此,以及与生命本身建立更紧密的联系。人类社会正变得越来越原子化,我们面临着过度劳累、失业率居高不下等无数挑战,不得不面对洪水、地震和热浪等自然灾害的威胁,亿万富翁和所谓的精英人士却为了牟利继续消耗资源,让我们生活在一片废墟之中。他们解决所有问题的办法,居然是让我们在机器的漩涡中寻求友谊、认同和联系,而不是从彼此身上。”
AI原生游戏的实现效果或许更好
马克斯·克雷明斯基(Max Kreminski)是康奈尔大学科技校区设计技术系的一位助理教授,他认为,基于大语言模型的聊天机器人并不适合被用作NPC角色,原因是聊天机器人生成的对话缺乏新意和原创性,并且几乎不受控制,会导致叙事设计师难以实现预期想法。“因此,它们往往会削弱优秀叙事设计中的作者意图。即使你将聊天机器人视为开放式的即兴创作伙伴,它们也无法为玩家提供太多发挥空间。”
克雷明斯基之前曾在AI模型公司Midjourney担任叙事实验室负责人,在他看来,许多开发者“笨拙地将生成式AI硬塞进了并不真正适用的领域”,尤其是试图用它来制作一些属于成熟品类的游戏。“此外,如今企业高管们之所以对生成式AI产生浓厚兴趣,似乎仅仅是为了削减成本……然而事实证明,这种策略几乎总是会导致游戏质量下降。”
不过,克雷明斯基相信大语言模型能够帮助开发者创作新颖有趣的体验。他举例,AI原生游戏《1001夜》巧妙地利用了大语言模型,“诱导大语言模型驱动的角色说出特定对话,就是其核心设计理念”。“设计师并没有简单地在既有品类游戏中加入基于大语言模型的NPC角色,而是围绕基于大语言模型的核心玩法循环,精心打造了充满新意的体验。”
《无限工艺》(Infinite Craft)也是个例子,这是一款利用大语言模型,让玩家将看似毫不相关的AI生成元素结合起来的沙盒游戏。克雷明斯基认为,如果开发者在设计游戏时将大语言模型用作“玩家开放式输入的解读器”,而非聊天机器人,未来将有可能开辟“一个全新品类”。
克雷明斯基还提到了诞生于2005年的老游戏《Façade》。在这款由迈克尔·马蒂斯(Michael Mateas)和安德鲁·斯特恩(Andrew Stern)创作的互动故事游戏中,玩家可以在公寓里四处走动,随意输入任何内容,然后观看游戏做出回应。当时,大语言模型尚未出现,“所以迈克尔和安德鲁不得不手工打造一个极其复杂、基于规则的解析器,来理解玩家输入的开放式指令”。那个解析器经常出错,但克雷明斯基仍然觉得,《Façade》将脚本化内容和玩家即兴发挥相结合的玩法相当引人入胜。
克雷明斯基补充说,设计师可以将大语言模型用作游戏系统中的众多组件之一,从而为玩家提供《Façade》风格的玩法。“与增强某个现有游戏品类相比,如果开发者尝试发明一种全新品类,将有更大机会获得成功。当然在此之前,他们还需要做更多研究。”
游戏编剧需要适应“文化转变”
丹·格里利奥普洛斯(Dan Griliopoulos)是一位编剧兼叙事设计师,曾供职于Inflexion Games、Improbable、Proxy Studios等公司。与许多同行一样,格里利奥普洛斯对生成式AI可能引发各种伦理问题感到担忧,例如加大能源消耗,引起版权和所有权争议,造成结构性的失业风险,以及拉大企业CEO和员工之间的价值观差异等等。但从纯粹的实用角度来看,他相信在未来10年里,聊天机器人将会变得更加普遍和完善。
在格里利奥普洛斯看来,当前游戏里的AI聊天机器人“状态很差”,所生成的角色对话过于笼统,并且经常因为不符合游戏的世界观而导致玩家出戏。不过,按照他的设想,叙事设计师可以“精心调教”类似的聊天机器人,并为NPC角色编写背景故事,设立性格特征,从而塑造他们的言行。这些文本可以由AI生成,但“为了避免落入俗套,我大概不会让聊天机器人代笔”“我想亲手打造游戏世界,创造一些原创的、新颖的东西”。
这位从业者承认,为了更好地利用生成式AI,游戏编剧需要适应从写作到策划、筛选和展示(内容)的“文化转变”。与此同时,程序员也需要更好地将聊天机器人集成到游戏中,确保NPC角色能够对玩家在游戏世界做出的选择做出反应。
某种意义上讲,通过调教使聊天机器人生成的对话不那么千篇一律,与人们在日常生活中用提示词引导AI的做法类似。“你可以告诉它,用20世纪30年代黑色侦探小说的风格写一段对话,但必须保证对话不脱离我们设定的世界观。”格里利奥普洛斯说,“你也可以让AI使用不受版权保护的文本或角色对话,比如模仿查尔斯·狄更斯的写作风格,或者仿写《荒凉山庄》中角色的台词。这样一来,你或许能够获得更加有趣的内容。”
对于游戏行业在生成式AI影响下的未来,格里利奥普洛斯似乎比另外几位受访者更加乐观。“我确实担心技术变革可能造成结构性的失业,为被AI抢走饭碗的同行们感到忧虑……但我也对未来充满期待,希望能早日体验到那些AI足够聪明、能够对玩家行为做出恰当反应的游戏。这是我长久以来的梦想。”他认为,游戏行业需要正视AI快速崛起的现实。在其他行业,很多公司已经在用生成式AI替代初级岗位的员工,“我们不能像鸵鸟那样将头埋进沙子里,假装这一切不会发生”。
“与其争论如何阻挡人工智能时代的到来,倒不如进行一些更有建设性的对话——我们应该怎样保住工作,留住创造力?我们如何避免生成式AI被滥用,导致本应受保护的版权遭到侵犯?我们能否在规则的约束下使用它,确保各方都满意,或者至少朝着这个方向努力?在现阶段,我们之所以没有讨论这些话题,是因为CEO们和其他人都害怕深入接触AI。”
格里利奥普洛斯补充,在未来,那些完全依赖于人类编剧的工作室将有更大机会脱颖而出——玩家甚至可能愿意花更多钱购买纯人工制作的游戏。“如果一款游戏里的所有内容都由真人制作,那么总有玩家愿意为这类‘奢侈品’支付额外费用。”他说,“我们可以主动研究,挖掘人类叙事中AI无法重现的微妙细节和巧思,从而以更好的方式讲述故事。AI无法模仿这个世界上还从未出现过的东西。因此,我建议大家以开放的心态去涉猎不同领域知识,比如寻找新的故事,阅读一些古怪的旧书,或者观看其他国家的奇怪电影。”
AI大模型在游戏对话中的表现需要更多尝试
尤尼斯·拉比(Younès Rabii)是一名独立开发者和AI研究员,目前在伦敦玛丽女王大学攻读博士学位。他指出,游戏中的AI聊天机器人更像是一个噱头。“在某种程度上,你甚至可能觉得开发团队为了逃避为游戏编写对话这项工作,将它外包给了一套看起来根本不合适的系统。”
大语言模型的优势在于其通用性和庞大的知识库,然而,文本缺乏针对性恰恰是它的缺点之一。“人们想要满足这样一种愿望:无论我说点什么,都能得到回应。但说实话,这跟掷骰子没什么两样……与人类精心编写的对话相比,AI生成对话往往缺乏相关性和准确性。”
拉比认为,从理论上讲,游戏厂商可以构建与特定游戏世界高度适配的聊天机器人,但他们需要为此投入大量的资源和人力。到那个阶段,厂商所做的事情已经超出了开发AI聊天机器人的范畴,而是变成了打造一套程序生成系统。
“假设某款游戏以中国的某个特定时代为背景,或灵感来源于特定的传说和民间故事。”拉比表示,“我们想要构建一个生成式AI,但希望用来自那个年代的素材训练它。这些素材包括我们已经找到的历史文献,或者经过整理、筛选和重新排版的文本。我们还可以聘请编剧,为游戏创造新的故事和场景。为了获得精确的素材,我们需要花钱,并投入大量精力。”
“这是研究和写作的成本,也是创作一部优秀小说或者一个精彩故事背后的所有成本。如果你不愿付出这些成本,又怎么可能享受它们带来的优势?”
拉比呼吁游戏行业放慢脚步:我们必须先了解这项技术本身、局限性和成本,才能真正“驯服”它。他指出,生成式AI的大规模使用会造成“灾难性的能源消耗”,并且在现阶段,创作者无法从大语言模型训练所用的作品中获得报酬……“在未来,AI系统或许能够生成非常有趣、契合游戏世界观的对话,但人类创作者在幕后付出的努力不应被否定。从某种意义上讲,AI生成对话仍然是他们的作品,因为他们将会在那个系统中做出决策。”
我们为什么要减少人类精心创作的内容?
英国游戏工作室Failbetter Games的叙事总监克里斯·加德纳(Chris Gardiner)认为,对游戏厂商来说,将大语言模型驱动的聊天机器人用于为NPC角色生成对话确实颇具吸引力。然而,这种做法的副作用是:当厂商尝试用尽可能少的编剧写出最多的文字时,就有可能导致“裁员和专业知识的系统性流失”。
加德纳说,他能理解为何许多开发者对聊天机器人感兴趣。“某些同行想要打造完全沉浸式的游戏——玩家可以做任何事情,游戏世界也会做出相应的反应。如果一款游戏允许玩家与NPC角色谈论任何话题,听起来像是朝着这个目标迈出了一大步,对吧?”但在他看来,这种想法具有误导性,因为人类写作的核心并非文字,而是意义:“生成式AI无法理解意义或视角,也无法拥有洞察力和鉴赏力。它只能通过算法猜测你期望看到的内容,但成功率参差不齐。”
人类编剧可以经过深思熟虑,做出AI聊天机器人无法复制的选择,比如通过调整NPC角色说话时的语气,“暗示游戏里的社会现状,或近期发生的事件”。“我们可以在特定场景加个笑话,让它与游戏主题联系起来,用它为未来将会发生的事件埋下伏笔,或者与其他内容形成对比……这些细节都能让游戏的内涵变得更丰富。”
加德纳承认,AI聊天机器人确实赋予了玩家某种程度的自主性,玩家可以自由地与NPC角色对话并获得回应。这让玩家可以“脱离既定轨道”。不过他强调,人类编剧也有能力做到这一点。“《博德之门3》允许玩家以最疯狂的方式脱离既定轨道,并为玩家的行为赋予意义,因为人类编剧已经为玩家的所有选择精心设计了邪恶或令人愉悦的结果。”他说,“这是大语言模型望尘莫及的,因为它没有内心世界,没有动机,无法理解游戏世界更广阔、更深层次的真相。它理解不了玩家想要或需要什么,更不可能为玩家提供超出预期,让他们感到惊喜的东西。”
他进一步指出:“就算暂时抛开使用生成式AI可能涉及的伦理问题(实际上不能),或者不谈它对环境的影响(实际上需要),甚至不考虑游戏质量(我不想这么做),我仍然会思考‘为什么’这个最基本的问题。在艺术和游戏作品中,我们为什么要减少人类精心创作的内容?我们究竟是否希望看到电子游戏越来越缺少独创性和匠心?无论如何,我相信玩家们渴望玩到开发者倾注热情制作的游戏。”
本文编译自:https://www.rockpapershotgun.com/horrible-boring-and-cheap-experts-pan-new-chatbot-npcs-but-some-leave-room-for-optimism
原文标题:《"Horrible","boring",and "cheap":Experts pan new chatbot NPCs,but some leave room for optimism》
原作者:Samuel Horti
