佘宗明/文ChatGPT引发的“余震”未息。就在近日,包括埃隆·马斯克、图灵奖得主约书亚·本吉奥、苹果联合创始人史蒂夫·沃兹尼亚克、《人类简史》作者尤瓦尔·赫拉利在内的上千名科技人士发联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。
乍听起来,很容易让人联想到马车夫要求禁止汽车上路之类的场景。但简单将这类呼声概括为反技术进步的新勒德主义,有失偏颇。这次发声的上千人,并非都是所谓的顽固派,其中许多人是赫赫有名的科技领袖、AI大牛。约书亚·本吉奥就被称为“AI教父”,马斯克也是裹着极客底色的动能派。
(相关资料图)
从公开信内容看,他们并不是反对发展AI技术,更多的是担心。他们的担心分为两类:第一,AI跑得太快,不会等一等人类。这通向的往往是霍金式忧虑——AI会导致人类族群灭绝;第二,AI被恶意使用。无论哪种,都可能带来灾难性影响,所以他们希望AI实验室“从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步”。
平心而论,这番呼吁未必能得到科技巨头们的响应。要知道,生成式AI被认为是下个时代的信息入口,而AI时代的创新又呈现高度的非线性、裂变式特征,今天落后一步,明天就可能落后十步。
也因如此,科技巨头们已掀起AI军备竞赛,在生成式AI的“iPhone时刻”已到来的背景下,谁都不甘心失去先机。更何况,再考虑到事关国家数字主权、未来科技竞争等,想让所有AI实验室一齐摁下研发暂停键,也并不现实。自数字化技术出现以来,没有哪项技术是可以说叫停就叫停的。
但我们不能说这些科技领袖的呼吁是杞人忧天。在超级人工智能雏形已现,以往科幻片中的场景密集涌现的当下,昔日很多远在天边的“AI失控风险”可以说是已近在眼前,不容回避。
具体而言,AI失控风险,可能体现在AI“成精”上,也可能体现在AI被不当滥用上。
前者是马斯克的顾虑所在,他此前之所以将人工智能比作核技术,称“它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的”,就是源于大胆猜想:人类就是引出超级数字智能物种(AI)的引导程序,最终AI代表的硅基文明可以对人类代表的碳基文明实施降维打击。
周鸿祎也曾表达担心:目前ChatGPT还只有大脑,接下来它可能进化出“眼睛”、“耳朵”、“手”跟“脚”……将来它会不会在看完类似《终结者》的电影后,产生与人类为敌的想法。在他看来,人类从智人发展而来,智人从类人猿发展而来,类人猿能进化为智人,就是因为脑中的神经元网络发生突变,现在ChatGPT大语言模型参数达到了1750亿,同样引发了突变。斯坦福大学教授曝光的GPT-4“越狱计划”,也似乎形成了印证。
这是更多科技人士的忧心之处。厄休拉·M·富兰克林曾在《技术的真相》中写道:技术的发展和运用都是在一个特定的社会、经济和政治语境中发生的,它从一个社会结构中产生,然后被嫁接在这个结构上。也就是说,技术也许没有善恶之分,但社会结构决定了,它可能被用来做恶。
“AI一键脱衣”“换脸亲吻”……这两天媒体曝出的诸多乱象,就表露了这层风险。更让人担心的或许是AI被诈骗分子乃至恐怖分子利用。故而纽约大学教授加里·马库斯说,他现在并不担心超级AI带来的“AGI风险”(我们无法控制的超级智能机器的风险),在短期内他担心的是平庸AI被广泛部署带来的“MAI风险”。
就连OpenAI的CEO萨姆·阿尔特曼、首席技术官米拉·穆拉蒂,也对此类风险直言不讳。阿尔特曼曾表示,AI潜在的危险性让他彻夜难眠,担心它被坏人所用。穆拉蒂也说,ChatGPT可能会编造事实,应受到监管。
这未必就该导向对新技术“审慎过度,包容欠缺”的强监管,但毫无疑问,马斯克们提醒的风险应当被重视。某种程度上,这其实就是要用科技向善的“地图”为AI发展导航,让AI回归以人为本,而不是让AI技术伴生的钓鱼、欺诈、监控去劫夺人的权利或损害人的尊严。
说白了,人是目的,AI则不是,它应该成为人类为善的工具,而不是作恶的利器。
(作者系资深媒体人)
关键词: