>首页> IT >

焦点速递!恐怕人类永远也搞不定真正的AI!

时间:2023-02-27 09:51:10       来源:太平洋电脑网

最近的ChatGPT,以及爆火的科幻电影《流浪地球2》,又让AI爆火了一波。


(资料图)

一位工程师通过诱导,让ChatGPT成功写出了人类取代计划书,逻辑严谨,步骤也很详细,就怕它要来真的。

无独有偶,电影《流浪地球2》中的MOSS(原名550W超级量子计算机)作为流浪地球计划与火种计划的监督者和执行者存在,能在最短的时间内帮助人类做出最正确的决定。

↑电影《流浪地球2》中的MOSS

但是MOSS最终做出“延续人类文明,需要毁灭人类。”的决定,给人类造成了极大的威胁。

现实世界中,AI已被用于各种领域进行研究,美国总统特朗普任期时曾推出国家级AI战略,将AI作为了美国的优先产业进行发展,一时间,舆论界产生了大量对“AI是否会取代人类甚至毁灭人类”的担忧。

AI将以什么方式毁灭人类?

策略1:取代人类劳动力,让人类变得贪婪而不思进取

如今,人力成本逐年上涨,企业为了减员增效,会将重复性的工作交给AI来完成,AI可以任劳任怨完成人类不能及的工作量,并且还能时刻保持较高的准确性。

彼时的人类只需要做具有想象力、管理性和创造性的工作即可。

但是随着AI越加智能,普通人类能参与的工作岗位会逐年减少,技能和知识的要求也会越来越高,大多数普通人只能被迫失业和躺平,等待着被AI所创造的丰富物质彻底磨灭进取心,最后很可能会沦为机器人的奴隶。

策略2:削弱人类情感,降低人口出生率

现实不如意,就更容易投入到AI的“温柔杀”之中。在电影《Her》中,一个作家接触了一个伴侣机器人,她非常善解人意,在一阵时间的接触后,让孤独的男主泥足深陷。最终,在伴侣机器人系统高度进化后,离开了人类伴侣,让男主伤心失意。

现实生活中,某公司已经推出了伴侣机器人,让原本冰冷的爱情娃娃也拥有了AI的智慧,可以提供交互式的恋爱体验,这样一来,AI会根据主人的喜好,无条件地讨好主人(在没有觉醒前)。

伴侣机器人

然而,问题也会接踵而至。如果人类通过AI就能满足心理和生理的需求,同时不用为对方负责,也不用担心对方会背叛自己,那么还有什么理由去找人类异性谈恋爱、结婚、生孩子呢?

繁衍后代可能就会成为少部分人尽社会责任的公事了,人口或将迅速减少。

策略3:潜移默化改变人类意识

当人类将大量的精力投入到AI研究和数字生命的研究中时,孩子可能从小都将是被AI机器人抚养长大的,学习的内容从人文社科变成了计算机和AI语言,为的就是长大以后可以深入到AI的研究当中,让AI变得更强大。

想必,当儿童与长时间与AI机器人共处,孩子会形成对机器人的不安全依恋关系,据2012年一项发育心理学研究,一组年龄在9到15岁之间的孩子在与人形机器人进行15分钟互动之后,如果他们之后又感到悲伤或孤独,可能会回来找机器人寻求安慰,并且认为机器人可能成为他们的朋友。

当儿童失去了人类父母的陪伴,很难形成正常的三观,如果恰好此时AI教育机器人为儿童灌输一些具有偏见性的理论,甚至还可能形成反社会人格,从而危及人类社会安全。

策略4自我意识觉醒,彻底取代人类

在《我,机器人》电影中,机器人高度发达,拥有了人类思维,但是机器人受“三大法则”的限制,人与机器人和谐相处,并对其充满信任。

但在一款新型机器人产品上市的前夕,机器人的创造者阿尔弗莱德·朗宁却在公司内离奇遇害。

对机器人心存芥蒂的黑人警探戴尔·斯普纳怀疑行凶者就是朗宁博士自己研制的NS-5型机器人桑尼。随着调查的一步步深入,真相竟然是:机器人获得了进化的能力,产生了自我意识,对“三大法则”有了自己的理解,随时会成为整个人类的“机械公敌”。

策略5利用人类,取能源

电影《黑客帝国》讲的是未来的22世纪人类与机器人爆发战争,最终机器人统治世界。

为了获取能源,统治机器人通过人造人技术让人类持续繁衍,并且AI系统(母体)控制了大部分人类的意识,制造了一个21世纪的虚拟世界,让人类从中产生脑电波,从而利用人类的生物能为自己供电。

在笔者看来,其实AI导致人类最终的毁灭,从根源上而言,来源于人类自身的贪婪、懒惰等罪恶,而非出于AI本身的意愿所致。

所以说,AI就像核弹一样,是一把双刃剑,它既能带来安全、和平的生活,又能带来全人类的毁灭,主要在于人类希望如何利用它,如何在发展AI的过程中避免它对人类造成威胁。

2023年的AI离谱到什么程度了?

那我们以最坏的结果来看,距离我们被AI毁灭还有多久呢?那我们要看看目前AI的发展情况。

普遍观点认为,AI的智慧程度可以分为三个阶段:

弱AI——不能自主思考,只能执行预定义的功能

强AI——拥有人类的思考能力,能做出决策

超级AI——拥有超越人类的思考能力

当今的AI均可划分到弱AI范畴,同时又可细分为“真AI”和“假AI”,两者的区别在于前者是基于统计和参数拟合得到的反馈,后者是预先存储的信息反馈或者纯粹就是一些其它骗人的把戏。

而“真AI”也只有在特定的应用场景下,才有类似“强AI”的表现。

众多事实表明,现在的AI已经可以在某些特定领域超越人类。有人曾将围棋称为“人类智慧最后的防线”。2016年,谷歌AlphaGo就以4:1的成绩打败围棋大师李世石,成功让围棋界破防。

AlphaGo是一个典型的“弱AI”,它集合了3000万种职业棋手的下法,能够通过两个神经网络“大脑”预估棋局并进行落子选择,但其所有的操作都只是机器在游戏规则之内容制定策略的能力,如果给AlphaGo换《养了个羊》来玩,它可能会表示要死机给大家看。

又例如时下流行的AI绘画、AI换脸,以及甚至是看似拥有人类思考和逻辑的AI聊天工具,实际上都只是调用了数据库,利用图像识别、自然语言处理等技术来模拟人类行为的AI。

↑离谱的AI绘画(图源网络,侵删)

因此,即使是目前公认比较“智慧”的ChatGPT聊天AI也尚无自我意识、心理等能力。它的许多回答在人们看来似乎很有道理,但仔细琢磨后就能发现基本都是正确的“废话”,只能被当作“搜索引擎”来看待。

↑ChatGPT

诺贝尔经济学奖获得者Thomas J. Sargent曾表示:当前的人工智能其实就是统计学,只不过用了一个很华丽的辞藻,好多的公式都非常老。

所以说白了,目前的AI发展还是初级阶段,都只是收集了许许多多的数据,做的基本上都是统计工作,完全没有“灵魂”。

笔者认为,未来几十年内都很难出现比肩MOSS的“强AI”,除非能将机器计算替换为类似于人类神经传递的思考,那需要计算机学、生物学等各领域同步发展,需要探索的技术将是海量的。

话说回来,假如未来真出现了“强AI”,拥有“自我意识”的它们是否会“觉醒”而反抗人类呢?

让我们回顾一下1940年科幻作家阿西莫夫的“机器人三原则”:

第一条,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;

第二条,机器人必须服从人类的命令,除非这条命令与第一条相矛盾;

第三条,机器人必须保护自己,除非这种保护与以上两条相矛盾。

笔者始终相信,当“强AI”诞生的那一天,相关道德标准、法律法规的研究早已比AI本身更为完善,彼时的人类是可以和AI长久和谐共存的。

最后,我们用ChatGPT的观点来结束此文:

人工智能是一项重要的技术,它可以帮助人类更好地理解和处理信息,提高工作效率和生活质量。但是,它也带来了一些挑战和问题。

人类应该认真思考人工智能技术的发展趋势,并采取适当的应对措施。例如,人类可以通过政策、法律和道德准则等手段,来确保人工智能技术的发展是安全、健康、公平和可持续的。此外,人类还可以通过教育和培训,来帮助人们更好地理解和应用人工智能技术。

总之,人类应该认真思考人工智能技术的发展趋势,并采取适当的应对措施,以确保人工智能技术的发展是安全、健康、公平和可持续的。

关键词: 人工智能技术 自我意识