禁忌人工智能中隐藏着哪些不可预知的风险?

当人们看到像人类一样做出反应的机器,或者像人类一样进行战略和认知壮举的计算机模仿人类智能时,他们有时会开玩笑说,人类未来需要接受机器人霸权。但这个玩笑背后隐藏着焦虑的种子。从1968的《2001:太空漫游》到2015的《复仇者联盟:奥创时代》,人工智能(AI)已经在科幻写作和热门电影中被炒作。在6月5日回归的AMC科幻剧《人类》中,人类与人工智能的冲突是主角。

在Synths中,我发现自己不仅在为基本权利而战,也在为生存而战,与那些认为自己不如人类、是危险威胁的人作战。即使在现实世界中,也不是所有人都准备好张开双臂欢迎人工智能。近年来,随着计算机科学家不断突破人工智能的极限,科技领域的领军人物警告人工智能可能给人类带来的潜在危险,甚至提出人工智能的能力可能会毁灭人类。但为什么人们对人工智能的概念如此不安?

在Synths中,我发现自己不仅在为基本权利而战,也在为生存而战,与那些认为自己不如人类、是危险威胁的人作战。即使在现实世界中,也不是所有人都准备好张开双臂欢迎人工智能。近年来,随着计算机科学家不断突破人工智能的极限,科技领域的领军人物警告人工智能可能给人类带来的潜在危险,甚至提出人工智能的能力可能会毁灭人类。但为什么人们对人工智能的概念如此不安?

“威胁”

埃隆·马斯克(Elon Musk)是引起人们对人工智能警惕的著名人物之一。2065438+2007年7月,马斯克在全国州长协会的一次会议上告诉与会者:我接触过非常前沿的人工智能,我认为人们真的应该重视它。警报一直在响,但直到看到机器人在街上杀人,人们才知道该如何反应,因为它看起来像一个太空幽灵。早在2014年,马斯克就将人工智能贴上了“我们生存的最大威胁”的标签,并在2017年8月宣布,人类正面临更大的人工智能风险。14年3月去世的物理学家斯蒂芬·霍金也表达了对恶意人工智能的担忧。他在2014告诉BBC,所有人工智能的发展可能意味着人类的终结。

同样令人不安的是,一些程序员——尤其是马萨诸塞州剑桥的麻省理工学院媒体实验室的程序员——似乎决心要证明人工智能是可怕的。2016年,美国麻省理工学院(MIT)的计算机科学家推出了一种名为梦魇机器(Nightmare Machine)的神经网络,将普通照片变成令人毛骨悚然、令人不安的地狱风景。麻省理工学院(MIT)一个名为“Shelley”的人工智能小组在论坛上发布了654.38+0.4万个关于Reddit用户的恐怖故事。我对人工智能如何诱导情绪感兴趣——在这种特殊情况下,是恐惧。

恐惧和仇恨

对AI的负面情绪通常可以分为两类:认为人工智能会变得有意识并寻求毁灭我们的人,以及认为不道德的人会将人工智能用于邪恶目的的人。人们害怕的一点是,如果超智能的人工智能——比我们聪明——变得有意识,它会把我们当成低等生物,就像我们对待猴子一样,这当然是不可取的。然而,对人工智能将发展意识并推翻人类的恐惧是基于对人工智能的误解,温伯格指出。人工智能在由决定其行为的算法定义的非常具体的限制下运行。一些类型的问题很好地映射到人工智能的技能集,这使得人工智能的一些任务相对容易完成。但大部分东西与此不相符,不适用。

这意味着,尽管人工智能可能能够在精心定义的界限内完成令人印象深刻的壮举——比如下一盘大师级的象棋或者快速识别图像中的物体——但这是其能力的终结。人工智能达到意识——这个领域绝对没有进展,我也不认为这是我们不远的将来。温伯格补充说,另一个令人担忧的想法是,不幸的是,一个不道德的人很可能会使用人工智能来产生有害的原因。几乎任何类型的机器或工具都可以根据用户的意图来使用,不管它的使用是好是坏,使用人工智能武器的前景肯定是令人恐惧的,并将受益于政府的严格监管。

或许,如果人们能够抛开对敌对人工智能的恐惧,他们会更愿意承认它的好处。例如,增强的图像识别算法可以帮助皮肤科医生识别潜在癌变的痣,而自动驾驶汽车有一天可以减少车祸死亡人数,其中许多死亡是由人为错误造成的。然而,在有自我意识的人工智能的“人类”世界,对有意识的人工智能的恐惧引发了人工智能与人的暴力冲突,人类与人工智能的斗争可能会继续并升级——至少在这一季。