首页 > 资讯 > 科技 > 正文
2023-08-28 07:10

一种“危险”的意识形态对人工智能的影响|《商业标准

Artificial intelligence brings great benefits to a wide variety of tasks but potential problems come when AI systems interact directly with human attention. Photo: Bloomberg

硅谷最受欢迎的哲学——长期主义——帮助实现了这一目标围绕人类灭绝的观点来讨论人工智能吧。

但越来越多的批评者警告说,这种哲学是危险的,对灭绝的痴迷分散了人们对与人工智能相关的实际问题的关注,比如数据盗窃和有偏见的算法。

作家埃米尔·托雷斯(Emile Torres)曾是一名长期主义者,后来成为该运动的批评者,他告诉法新社,这种哲学建立在过去用来为大规模屠杀和种族灭绝辩护的那种原则之上。

然而,这场运动以及相关的意识形态,如超人类主义和有效利他主义,在从牛津到斯坦福的大学以及整个科技行业都有着巨大的影响力。

彼得·蒂尔(Peter Thiel)和马克·安德森(Marc Andreessen)等风险投资家已经投资了延长寿命的公司和其他与该运动相关的热门项目。

埃隆·马斯克(Elon Musk)和OpenAI的山姆·奥特曼(Sam Altman)签署了公开信,警告人工智能可能会使人类灭绝——尽管他们认为只有他们的产品才能拯救我们,这对他们有利。

最终,批评人士表示,这种边缘运动对有关人类未来的公共辩论产生了太大的影响。

“很危险”

长期主义者认为,我们有责任为大多数人创造最好的结果。

这与19世纪的自由主义者没有什么不同,但长期主义者心中的时间表要长得多。

他们展望遥远的未来,看到数以万亿计的人类漂浮在太空中,殖民新的世界。

他们认为,我们对未来的每一个人都负有同样的责任,就像我们对今天活着的任何人一样。

因为它们的数量太多了,它们比今天的标本要重得多。

《人类灭绝:灭绝的科学史和伦理学》一书的作者托雷斯说,这种想法使这种意识形态“非常危险”。

托雷斯说:“任何时候,只要你有一个乌托邦式的未来愿景,它的价值几乎是无限的,你把它与一种功利主义的道德思维模式结合起来,认为目的可以证明手段是正当的,这将是危险的。”

如果一种超级智能机器即将诞生,并有可能毁灭人类,那么无论后果如何,长期主义者肯定会反对它。

今年3月,当Twitter(现在被称为X的平台)的一名用户问,有多少人会死才能阻止这种情况发生时,长期主义理想主义者埃利泽·尤德科夫斯基(Eliezer Yudkowsky)回答说,只需要有足够的人“形成一个可行的生殖种群”。

“只要这是真的,总有一天我们还是有机会到达其他星球的,”他写道,尽管他后来删除了这条信息。

优生学索赔

长期主义源于瑞典哲学家尼克·博斯特罗姆(Nick Bostrom)在20世纪90年代和21世纪初围绕存在风险和超人类主义(即人类可以通过技术得到增强)所做的研究。

学者Timnit Gebru指出,超人类主义从一开始就与优生学有关。

创造了“超人类主义”一词的英国生物学家朱利安·赫胥黎在20世纪50年代和60年代担任英国优生学协会主席。“长期主义是换了个名字的优生学,”Gebru去年在X上写道。

长期以来,博斯特罗姆一直面临着支持优生学的指责,此前他将“基因失调压力”列为一种生存风险,即智商较低的人比智商较高的同龄人生育得更快。

这位哲学家在牛津大学(University of Oxford)经营着生命未来研究所(Future of Life Institute)。今年1月,他承认自己曾在上世纪90年代的一个互联网论坛上发表种族主义帖子,并为此道歉。

“我支持优生学吗?不,不是人们通常理解的那样,”他在道歉中写道,并指出这个词曾被用来为“上世纪一些最可怕的暴行”辩护。

“更加耸人听闻的”

尽管有这些麻烦,像尤德科夫斯基这样的长期主义者继续受到欢迎。尤德科夫斯基高中辍学,以写哈利波特同人小说和提倡一夫多妻制而闻名。

奥特曼称赞他为OpenAI获得了资金,并在2月份表示他应该获得诺贝尔和平奖。

但格布鲁、托雷斯和其他许多人正试图重新关注艺术家作品被盗、偏见和财富集中在少数公司手中等危害。

托雷斯说,虽然也有像尤德科夫斯基这样的忠实信徒,但围绕物种灭绝的争论大多是出于利益的考虑。

他们说:“谈论人类灭绝,谈论一个真正的世界末日事件,每个人都会死,比肯尼亚工人每小时挣1.32美元,或者艺术家和作家被剥削更耸人听闻,更吸引人。”