您的位置:首页>智东西 >

AI导致失业,人类是否应该得到补偿? 环球热头条

来源:天天炫技  

本文来自微信公众号:凤凰网科技(ID:ifeng_tech),综合整理:箫雨,头图来自:视觉中国


(相关资料图)

人类为人工智能(AI)的训练提供了各式各样的数据,但是到头来可能会因为AI失去饭碗。那么,AI是否应该给人们提供补偿呢?

这就牵扯到了先进技术对人类的替代问题。新一波生成式AI的兴起,再度引发了人类对失业的恐慌。未来,AI等先进技术将会消除更多工作岗位,从律师、记者、艺术家、软件工程师等白领和创造性岗位,到蓝领工人。

那么,有什么方法可以补偿人类为AI做出的贡献,保证他们的生存呢?

一、全民基本收入

在硅谷,一些最聪明的人认为,随着先进技术淘汰了更多职业,保证人们不受限制进行现金支付的“全民基本收入”(UBI)制度将帮助他们生存和发展。这一想法获得了足够的关注。自2020年以来,美国城市已经启动了数十个保障收入项目。

凤凰网科技《AI哨所》了解到,全民基本收入也称为“无条件基本收入”,主张由政府无条件、定期给予民众固定、可预期的基本收入,让所有人都能有固定的收入可运用。近年来,全民基本收入曾在数个国家讨论及测试。2020年,随着新冠肺炎暴发,全球失业率大增、底层劳动者缺乏收入,又有更多国家开始关注全民基本收入。

这项倡议得到了科技界大咖的支持。2021年,埃隆·马斯克(Elon Musk)在特斯拉举办的AI活动上表示,由于AI导致了大规模自动化工作,失业问题将会出现,而全民基本收入可能是解决这一迫在眉睫问题的办法。

“从本质上讲,未来,体力工作将是一种选择”,马斯克在演讲中说,“这就是为什么我认为从长远来看,我们需要一个全民基本收入的原因。”

脸书创始人马克·扎克伯格(Mark Zuckerberg)也支持这一想法。“我们应该探索像全民基本收入这样的想法,以确保每个人都有尝试新想法的缓冲空间。”扎克伯格2017年在哈佛大学毕业典礼上表示。

然而,就连OpenAI CEO、全民基本收入最知名支持者之一的萨姆·阿尔特曼(Sam Altman)也不认为这是一个全面的解决方案。

正如他在今年早些时候的一次采访中所说的,“我认为这是解决方案的一小部分。我认为这很棒。我认为,随着先进的AI越来越多地参与到经济中来,我们应该更多地分配财富和资源。随着时间的推移,这将变得很重要。但我不认为这能解决问题。我不认为这将赋予人们意义,我不认为这意味着人们将完全停止尝试创造和做新的事情。因此,我认为它是一种赋能技术,但不是一项社会计划。

二、数据尊严

虚拟现实领域创始人之一、计算机科学家杰伦·拉尼尔(Jaron Lanier)本周撰文称,“数据尊严”(data dignity)可能是解决方案中更重要的一部分。

这是一个基本前提:现在,我们主要是免费提供数据来换取免费的服务。拉尼尔认为,在AI时代,我们需要停止这样做。目前正在进入社会的强大模型需要“与人类建立联系”,因为人类首先给了它们很多可以吸收和学习的东西。

他所提出的想法是:人们要“从他们创造的东西中获得报酬,即使它被过滤和重组成一些无法辨认的东西”。

这并不是全新想法。拉尼尔在2018年为《哈佛商业评论》撰写的一篇题为《更好的数字社会蓝图》的文章中首次提出了数据尊严的概念。

当时,他与文章合著者、经济学家格伦·韦尔(Glen Weyl)写道,“科技行业的言论表明,由于AI和自动化,一波就业不足的浪潮即将到来”。但是,拉尼尔和韦尔观察到,全民基本收入倡导者的预测“只可能造成两种结果”,而且它们是极端的。“尽管技术进步了,但它要么会造成大规模贫困,要么必须通过社会财富基金将大量财富纳入中央控制,为公民提供全民基本收入。”

他们写道,这个问题既导致了“权力过度集中,也削弱或忽视了数据创造者的价值”。

三、如何识别个人数据?

当然,为人们对网上存在的一切做出的无数贡献进行适当分配并不是一个小挑战。拉尼尔承认,即使是数据尊严研究人员也无法就如何理清AI模型吸收的所有内容,或者应该尝试进行详细的说明达成一致。尽管如此,拉尼尔认为这是可以逐步实现的。

即使有了意愿,一个更直接的挑战——缺乏渠道——也有很多困难需要克服。尽管OpenAI在前几年发布了一些训练数据,但出于竞争和安全方面的考虑,它已经完全关闭了数据来源。OpenAI总裁格雷格·布罗克曼(Greg Brockman)上个月介绍了OpenAI最新、最强大的大型语言模型GPT-4的训练数据。他表示,这些数据来自“各种许可的、创建的和公开可用的数据源,其中可能包括公开可用的个人信息”,但他拒绝提供更多具体信息。

与此同时,监管机构正在纠结该采取何种措施。OpenAI的技术像野火一样迅速蔓延,已经成为越来越多国家的打击目标,包括意大利当局,该国已经禁止使用其ChatGPT聊天机器人。法国、德国、爱尔兰和加拿大的数据监管机构也在调查ChatGPT收集和使用数据的方式。

曾担任谷歌AI伦理联合负责人的AI研究员玛格丽特·米切尔(Margaret Mitchell)表示,目前所有这些公司几乎不可能识别个人数据并将其从模型中删除。如果OpenAI从一开始就内置数据记录,它今天的情况会更好,但AI行业的标准做法是,通过不加区分地抓取网络来为AI模型构建数据集,然后外包一些数据清理工作。

与此同时,结束“我们当前AI模型的黑箱性质”将使人们的贡献更容易核算,让他们更倾向于保持参与并继续做出贡献。

随着世界上越来越多的东西被这些新工具所重塑,所有权的挫折感也很可能会增加。OpenAI和其他公司已经面临着大量版权侵权诉讼,争论的焦点是他们是否有权搜刮整个互联网来为他们的算法提供数据。

本文来自微信公众号:凤凰网科技(ID:ifeng_tech),综合整理:箫雨

关键词:

最新文章