独家专访|图灵奖获得者杰克·唐加拉:ChatGPT并非“超算大脑”

 邮箱网  0条评论  3044次浏览  2023年04月20日 星期四 16:48

分享到: 更多
现任美国田纳西大学电气工程和计算机科学系教授的杰克·唐加拉(Jack J. Dongarra),既是美国国家工程院院士,又是英国皇家学会外籍院士,比起“双院士”身份,他还有另外一个更加惹人注目的头衔——2021年图灵奖获得者。

有着“计算机界诺贝尔奖”之称的图灵奖,是全球计算机领域最负盛名的奖项。该奖项对获奖者的条件要求极高,评奖程序甚为严格,通常每年只奖励一名计算机科学家,只有极少数年度有两名及以上在同一方向做出杰出贡献的科学家可以同时获奖。

唐加拉教授是超级计算机基准测试、数值分析、线性代数解算器和高性能计算领域的先驱,因其对线性代数运算的高效数值算法、并行计算编程机制和性能评估工具的卓越贡献,引领了高性能计算,从而一举斩获图灵奖殊荣。他的主要成就是创建了采用线性代数作为中间语言、可供各类应用程序使用的开源软件库和标准,在数值算法和库方面更是做出了开创性的探索,使得高性能计算软件能够跟上四十多年来的指数级硬件更新。

图灵盛名的优秀履历绝非偶然,这位72岁的计算机科学家对于高性能计算和人工智能有着不同寻常的洞见。近日,唐加拉教授确认将线上出席5月26日在贵阳举办的2023中国国际大数据产业博览会(简称“数博会”)开幕式,并围绕“高性能计算和大数据”话题作主旨演讲。作为计算机领域的顶级专家,唐加拉教授将以深度参与者和建设者的第一视角分享对于算力发展的独到见解,同时,他本人也于日前接受了数据观的独家专访,就算法赋能数字技术、芯片行业未来、数据中心、高性能计算挑战、人工智能与ChatGPT等时下国际热点和焦点展开了精彩分享,在2023数博会召开前为大家带来一场精妙绝伦的思想盛宴和智慧大餐。

算法演进赋能信息技术长足发展

从大数据到数字技术,新一代信息技术深刻影响了人类的生产方式和生活方式。在这个过程中,算法也经历了“经典算法——机器学习算法——深度学习算法——强化学习算法——进化算法”的迭代演变。唐加拉教授表示,算法的演进是近几十年来让世界信息技术得以长足进步的关键,随着数据集呈几何倍爆炸式增长,算法在数据分析和数据处理环节已经成为不可或缺的重要技术手段。

算法是计算机处理信息的本质。五个算法代表了不同时期人类与技术共栖的数字文明生态,唐加拉教授结合时代背景详细阐释了五个算法的特点。

根据他的介绍,最早的算法是经典算法,被用于数学计算里的简单分步程序,该算法旨在解决具体数量问题。机器学习算法随着大数据应运而生,由于传统算法不足以处理大量信息,机器学习算法作为一种训练计算机识别模式并根据数据进行预测的方式问世,该算法包括决策树、神经网络和支持向量机等。深度学习算法代表了机器学习的巨大突破,它使计算机能够从非结构化数据中学习,例如图像和自然语言,该算法使用多层人工神经元从数据中提取特征并作出准确预测。强化学习算法也是一种机器学习,它训练计算机在试验和错误的基础上做出决定,该算法被用于机器人和游戏等领域,计算机通过与环境互动进行学习。进化算法使用自然选择原则来寻找复杂问题的解决方案,该算法被广泛应用于优化问题,如调度、路由和资源分配。

“总体而言,算法的演进与信息技术、大数据的发展密切相关。随着数据集日益庞大和复杂,算法也将日渐成熟强大,使得计算机能够做出更加准确的分析和预测,越来越多的任务正在实现自动化。”唐加拉教授说。

量子技术或引领芯片行业跨越式飞跃

目前,深度学习对底层芯片计算能力的需求一直在飞速增长,甚至大大超过了摩尔定律的速度。对于芯片行业未来的发展趋势,唐加拉教授直言,随着人工智能、大数据分析、物联网等领域对高性能计算的需求不断提升,芯片行业有望在未来几年内持续增长和创新。随后,他进行了大胆的预测。

深度学习和其他形式的人工智能需求持续激增,可以预见的是,人工智能芯片的研发将变得紧迫而重要,这些芯片被设计用来加速神经网络和其他机器学习算法的处理,使人工智能可以快速高效地应用到各类社会场景。

与此同时,诸如极紫外光刻和多重光散射等先进制造工艺正在高速发展,这使未来的芯片可以具有更小的特征尺寸和更高密度,兼具强大功能和高节能性为一体。为特定应用定制芯片的能力也变得越来越重要,因为它能够创建高度优化的系统,提供最大的计算性能和效率。

值得注意的是,尽管量子计算仍然处于研究阶段,但这不妨碍它成为一个充满无限潜力的领域,基于量子技术生产的量子芯片甚至能够替代经典计算机完成之前无法完成的种种计算,彻底颠覆行业,它将在未来的计算领域发挥绝对优势。

唐加拉教授表示,芯片的核心竞争力包括高性能计算、能源效率、可靠性和安全性。他强调:“优秀的芯片必须能够快速准确地处理大量数据,同时消耗最少电力,并提供高水平的可靠性和安全性。”

高性能计算发展的六大挑战

近年来,依托数据、算法和算力快速发展的人工智能正在撼动世界。以美国开放人工智能研究中心(OpenAI)研发的ChatGPT为首,拥有对话、绘画能力的生成式AI陆续登场,其能力之强令人震惊。显然,高性能计算为人工智能的崛起提供了强大引擎,随着人工智能的广泛应用,高性能计算也将面临一些技术挑战。唐加拉教授认为制约高性能计算发展的瓶颈表现在以下六个方面。

可扩展性方面,随着人工智能应用日渐差异化,需要更多的数据和更强大的计算资源来支撑,高性能计算系统也需要扩大规模以满足这些需求,这就需要设计、构建能够有效处理海量数据和处理能力的系统,同时保持高性能和可靠性。

能源效率方面,高性能计算系统会消耗大量能源,这对于社会经济和环境来说都是一个难题。人工智能的应用越广泛,需要的算力就越大,能源效率已经成为高性能计算的重要挑战。

异质性方面,人工智能应用需要各种各样的计算资源,包括GPU、TPU和FPGA,以及专门的软件框架和算法。管理这些不同资源的同时,还要将它们整合到一个连贯的高性能计算系统中并非易事。

弹性方面,高性能计算系统必须具有高度弹性和可靠性,由于人工智能应用需要连续不断地处理数据,任一停机或故障都会带来重大损失。

数据管理方面,人工智能应用处理数据的同时也产生数据,这些数据须得到有效安全的管理。高性能计算系统在设计的时候就要考虑是否能够及时、安全地处理大型数据集的存储和检索。

人才方面,目前,具有高性能计算和人工智能专业知识的熟练专业人员大量短缺,这对依赖于技术的组织来说也是一个重大挑战。为了解决这个问题,建议增加对教育和培训项目的投资,以培养一支能够有效管理和操作高性能计算系统的人才队伍。

ChatGPT并非“超算大脑”

今年初以来,“ChatGPT现象”火遍全球,对这个呼声颇高的生成式人工智能,唐加拉教授表达了不同的看法——“虽然ChatGPT被誉为自然语言处理领域的一项杰出成就,但并不意味着它就是‘超算大脑’。”他指出,超级计算系统高度专业化,旨在进行复杂的计算和各种模拟,而ChatGPT是基于文本输入进行的内容输出,产生类似人类的反应。

ChatGPT代表了人工智能领域的重大进步,或将彻底改变许多行业的就业模式,包括客服、教育和诊疗,部分人对此表示担忧。唐加拉教授认为不必过度焦虑,根据他的分析,像ChatGPT这样的人工智能技术可以即使能实现某些任务和流程的自动化,然而它们在情感和判断上不可能完全取代大多数人的工作。相反,这些技术更有可能增强和提高人类的工作能力、效率,就业者可以腾出时间从事更有创造性和增值性的工作。

与任何新兴技术一样,ChatGPT会给就业市场带来赢家和输家。一方面部分工作可以实现自动化,另一方面,新的工种也会诞生,用以支持这些新技术的开发、部署和维护。所以,无论政府、企业还是个人,都要为这些即将发生的变化做好充足的准备。(文|数乾坤)

标签:ChatGPT杰克·唐加拉

我的评论:

请  后发表评论。