流行文化中对人工智能(AI)的描述往往倾向于走向极端:要么人类从无处不在的自动化带来的财富和效率中受益,要么机器崛起并杀死我们所有人。这些对未来的想象不仅仅是科幻小说中假想的玩具;他们是强大的社会和政治力量,可以推动现实世界的变革。
近几个月来,专家们警告说,如果不加以控制,人工智能可能会带来潜在的生存后果。欧盟率先出台了“人工智能法案”(AI Act),以规范这项同名技术。包括硅谷开拓者在内的数万人联名请愿,要求停止人工智能模型培训六个月。同样,许多技术专家认为人类是人工智能进步的障碍,有些人相信,制造出“有感情的”人工智能只会造福人类。这些反乌托邦和乌托邦的愿景被一种必然性联系在一起,最终可能会忽视无数其他潜在的人工智能未来,并可能分散人们对与该技术相关的一些更直接问题的注意力。
未来研究——或未来学——会告诫人们不要预先假定必然性。这门学科试图消除预设在我们对未来愿景中的假设和偏见,并为所有可能的未来敞开心扉。通过这样做,它消除了噪音和夸张,专注于重要的事情。
人工智能就是这样一个公共辩论的对象,它将受益于应用未来学。最近发布的ChatGPT、DALL-E等生成式人工智能产品及其竞争对手,引发了人们的疑问:人类与人工智能的首次大规模真正接触将会带来什么后果?从早期与技术的互动中发现的一些是放大的抄袭、错误和虚假信息,以及攻击性、偏见和歧视性的产出。
但更多的哲学问题随之而来:人工智能会抢走我们的工作吗?它有知觉吗?它会取代我们吗?未来的研究可能会说,这些都是可能的,但首先会试图理解其中的假设。在这种情况下,似乎最有可能的原因是人们对人工智能的集体理解不到位,这种理解受到了人类走向极端的自然倾向的支持。
从根本上说,ChatGPT和DALL-E等人工智能技术的好坏取决于支持它们的数据、模型和计算能力(或“计算”)基础设施。在过去的几十年里,对这三个要素共生关系的关注使人工智能的发展迅速扩大,并已成为发展的行业标准。
然而,有迹象表明,这种方法已经耗尽了它的效用。ChatGPT和DALL-E背后的公司首席执行官塞缪尔·奥特曼(Samuel Altman)表示,通过扩展数据、模型和计算来生产生成式人工智能的回报正在递减。模型精度的边际改进并不能证明维持支持生成式人工智能的系统所需的巨大成本——财政和环境成本——是合理的。未来的创新可能必须来自其他地方。
更重要的是,当生成式人工智能模型被输入它们生成的数据(而不是“真实”数据)时,它们可能会遭受模型崩溃。这些合成数据可能会误导模型的学习过程,并降低其产生准确输出的能力。实际上,生成式人工智能可能成为自我毁灭的罪魁祸首。
如果任何一种可能性成为现实,人工智能的未来会变成什么样子?这两件事似乎都让人工智能正朝着普遍应用的方向发展——无论是好是坏——这一概念复杂化了。
从这里开始,多种期货将开启。我们可能会看到人工智能发展的瓶颈,这可以给我们时间来有效地监管它,或者我们可能会看到一个彻底的崩溃,尽管解决了上面提到的一些问题,但可能会降低我们利用人工智能的能力。
这并不是说现在不应该采取任何措施来规范这项技术或抵消其负面影响。相反,抄袭、错误和虚假信息以及歧视性产出等问题的重要性只会越来越大,需要采取干预措施来减轻它们带来的后果。
但这也就是说,公众对人工智能的大部分讨论都陷入了一种过时的、不切实际的理解,无法理解这项技术是什么以及它能做什么。由此产生的对未来的憧憬可能会让我们误入歧途,或者让我们追逐幽灵,而忽略了上面提到的那些重大问题。
我们不可能知道人工智能未来会把我们带到哪里。也许它最终会控制世界上的计算机,使我们在经济上变得多余,或者灭绝。希望它能被用来造福全人类。或者,它可能会停滞不前,甚至彻底崩溃。目前,我们可以相当肯定,除非采取迅速和果断的行动,否则它将继续加剧我们已经目睹的社会危害。
因此,在考虑人工智能的长期未来时,我们应该谨慎对待自己,并将我们的集体资源用于解决它在当前造成的问题,而不是保护自己免受遥远的怪物的侵害。
电话咨询