来源:网络 | 2021-11-30 07:11:13
人工智能的进步——据估计,在短短几十年内——将引领超级智能、有知觉机器的发展。从《终结者》到《黑客帝国》的电影都将这一前景描绘得相当不理想。但这比另一部科幻小说《恐惧计划》更重要吗?
人工智能这个词有两种截然不同的用法,造成了一些混淆。从本质上讲,第一种感觉是营销:计算机软件所做的任何看起来聪明或有效响应的事情——比如Siri——都被称为使用“人工智能”。第二种感觉,第一种感觉借用了它的魅力,指向了一个还不存在的未来,即拥有超人智能的机器。这有时被称为AGI,用于人工通用智能。
如果我们愿意,我们怎么从这里到达那里?现代人工智能采用机器学习(或深度学习):我们不让规则直接编程到机器中,而是让它自己学习。就这样,由英国Deepmind公司(现为谷歌的一部分)创建的国际象棋实体AlphaZero进行了数百万场针对自己的训练赛,然后击败了其顶级竞争对手。最近,Deepmind的AlphaFold 2被认为是“蛋白质折叠”生物学领域的一个重要里程碑,即预测分子结构的确切形状,这可能有助于设计更好的药物。
机器学习的工作原理是在大量数据上对机器进行训练——图像识别系统的图片,或从互联网上为生成半可信文章(如GPT2)的机器人采集的TB级散文。但数据集不仅仅是中立的信息存储库;他们经常以不可预见的方式对人类偏见进行编码。最近,他们问Facebook上的“谁想看一个关于灵长类动物的视频”的新闻。美国几个州已经在使用所谓的“人工智能”来预测假释候选人是否会再次犯罪,批评人士称,这些算法训练所依据的数据反映了警方的历史偏见。
计算机化系统(如飞机自动驾驶仪)可能对人类有利,因此现有“人工智能”的缺陷本身并不是反对设计智能系统以帮助我们在医疗诊断等领域的原则的论点。更具挑战性的社会学问题是,采用算法驱动的判断是一种诱人的推卸责任的方式,因此,负责人——无论是法官、医生还是科技企业家——都不会受到指责。机器人会承担所有的工作吗?正是这种框架推卸了责任,因为真正的问题是管理者是否会解雇所有人。
与此同时,存在的问题是:如果计算机最终获得了某种上帝级的自我感知智能——这一点在Deepmind的使命宣言中有明确的规定,例如(“我们的长期目标是解决智能问题”并构建AGI)——它们是否仍然热衷于服务?如果我们建造了如此强大的东西,我们最好相信它不会攻击我们。对于那些严重关注这一问题的人来说,他们的观点是,既然这是一个潜在的灭绝级问题,我们现在就应该投入资源来应对它。哲学家Nick Bostrom是牛津大学未来人类研究所的负责人,他说人类试图建造人工智能就像“玩炸弹的孩子”一样,机器感知的前景对人类的威胁比全球变暖更大。他的2014年著作《超级智能》具有开创性意义。它指出,一个真正的人工智能可能会秘密制造神经毒气或纳米机器人,以摧毁其劣质的肉类制造商。或者它可能只是把我们关在一个行星动物园里,而不管它真正的业务是什么。
人工智能不必积极恶意地制造灾难。博斯特罗姆著名的“回形针问题”就说明了这一点。假设你让人工智能制作回形针。还有什么比这更无聊的呢?不幸的是,你忘了告诉它什么时候停止制作回形针。因此,它把地球上所有的物质都变成了回形针,首先禁用了它的关闭开关,因为让它自己关闭会阻止它追求制造回形针的崇高目标。