谷歌 CEO 称社会需要适应 AI,但 AI 虚假内容说明监管必要性

 邮箱网  0条评论  1487次浏览  2023年04月18日 星期二 10:00

分享到: 更多
4 月 18日消息,“我一直认为 AI (人工智能)是人类正在研究的最深刻的技术,比火、电或我们过去所做的任何事情都要深刻。”

当地时间 4 月 16 日,在哥伦比亚广播公司的采访节目《60 分钟》里,谷歌及其母公司 Alphabet 的首席执行官桑达尔・皮查伊(Sundar Pichai)表达了他对人工智能的快速发展及其对社会潜在威胁的担忧,并警告说社会需要为已经推出的技术做好准备。

在《60 分钟》的采访中,采访者斯科特・佩利 (Scott Pelley) 尝试了谷歌的几个人工智能项目,他表示“说不出话来”,觉得它们“令人不安”(IT之家注:这里指的是谷歌的聊天机器人 Bard 等产品)。

皮查伊告诉佩利:“我们的社会需要适应它,”他补充说,各行各业或许都会受到影响,作家、会计师、建筑师,以及软件工程师在内的各种“知识工作者”或将被人工智能颠覆。

“这将影响到每家公司的每一款产品”,“例如,你可能是一名放射科医生,如果你从现在开始的 5 到 10 年有一个人工智能合作者。你早上来,假设你有一百件事情要处理,它可能会说,‘这些是你首先需要处理的最严重的案件。’”

佩利考察了谷歌内部其他拥有先进 AI 产品的领域,包括 DeepMind,他们的机器人甚至可以踢足球,而它们却并未从人类那里学习这一技能。,除此之外,谷歌还展示了一款识别物品的机器人,并为佩利取来了他想要的苹果。

在警告人工智能的后果时,皮查伊表示,虚假信息、假新闻和图像问题的规模将“大得多”,“它可能造成伤害”。

上个月,谷歌向公众推出了人工智能聊天机器人巴德 (Bard) ,而此前微软已经在其搜索引擎必应 (Bing) 中引入 OpenAI 的 GPT 技术。

然而,最近几周,各领域公众人士开始表达对这种快速发展后果的担忧。今年 3 月,马斯克、史蒂夫・沃兹尼亚克和数十名学者呼吁立即暂停与大型语言模型相关的训练“实验”,这些模型“比 GPT-4 更强大”,这份信有着超过 2.5 万人署名。

佩利在节目中评论道:“像谷歌这样的巨头和你从未听说过的初创公司之间的竞争压力正在推动人类走向未来,无论是否准备好。”

谷歌发布了一份文件,概述了“监管人工智能的建议”,但皮查伊表示,社会必须迅速适应法规、惩罚滥用的法律、国家间的条约,以确保人工智能对世界的安全,以及“符合包括道德在内的人类价值观”的规则。

“这不是一家公司能决定的”,“这就是为什么我认为这一领域的发展不仅需要工程师,还需要社会科学家、伦理学家、哲学家等等。”

当被问及社会是否为巴德这样的人工智能技术做好了准备时,皮查伊回答说:“一方面,我觉得没有,因为我们作为社会机构可以思考和适应的速度,与技术发展的速度相比,似乎不匹配。”然而,他表示他很乐观,因为与过去的其他技术相比,“开始担心其影响的人的数量”很早就开始了。

标签:监管AI

我的评论:

请  后发表评论。