前谷歌 CEO Eric Schmidt:人工智能将如何改变科学研究的方式

前谷歌 CEO Eric Schmidt:人工智能将如何改变科学研究的方式

撰文:Eric Schmidt

来源:麻省理工科技评论

图片来源:由无界 AI工具生成

又是一个极端天气的夏天,前所未有的热浪、野火和洪水冲击着世界各国。为了应对准确预测此类极端天气的挑战,半导体巨头 Nvidia 正在为整个地球构建由人工智能驱动的“数字双胞胎”。

这个名为 的数字孪生将使用 的预测。FourCastNet 是一种人工智能模型,使用数十 TB 的地球系统数据,可以比当前的预测方法更快、更准确地预测未来两周的天气。

通常的天气预报系统能够为未来一周生成大约 50 个预测。而 FourCastNet 可以预测数以千计的可能性,准确捕捉罕见但致命的灾害风险,从而为弱势人群提供宝贵的准备和疏散时间。

人们所期待的气候模型革命仅仅只是一个开始。随着人工智能的出现,科学即将变得更加令人兴奋 -- 并且在某些方面变得难以识别。这种转变的影响将远远超出实验室的范围;它们将影响我们所有人。

如果我们采取正确的策略,通过合理的监管和对人工智能创新用途的适当支持来解决科学最紧迫的问题,AI 可以改写科学过程。我们可以构建这样一个未来:由人工智能驱动的工具不仅能让我们摆脱无脑且耗时的劳动,还能引导我们进行创造性的发明和发现,鼓励我们实现原本需要数十年才能实现的突破。

近几个月来,人工智能几乎成了大型语言模型,或称 LLM 的代名词,但在科学领域,有众多不同的模型架构,可能会产生更大的影响。在过去的十年里,科学领域的大部分进展都是通过专注于特定问题的小型“经典”模型取得的。这些模型已经带来了深刻的进步。最近,开始纳入跨领域知识和生成式 AI 的大型深度学习模型扩大了可能的范围。

例如,麦克马斯特大学和麻省理工学院的科学家们已使用 AI 模型来识别,以对抗被世卫组织称为世界上对医院患者最危险的抗生素耐药细菌之一的病原体。此外,谷歌 DeepMind 模型可以核聚变反应中的等离子体,使我们更接近清洁能源革命。而在医疗保健领域,美国食品和药物管理局已经批准了 523 个使用人工智能的设备,其中 75% 用于放射学。

重新想象科学

从本质上讲,我们在小学学到的科学过程将保持不变:进行背景研究,确定一个假设,通过实验进行测试,分析收集的数据,并得出结论。但人工智能有可能彻底改变这些组成部分在未来的面貌。

目前,人工智能已经在改变一些科学家进行文献审查的方式。像 和 这样的工具利用 LLMs 来扫描文章数据库,并对现有的文献 -- 包括引文 -- 做出简洁而准确的总结。

一旦文献综述完成,科学家就会做出有待测试的假设。LLMs 的核心工作是预测一个句子中的下一个词,直至完成整个句子和段落。这种技术使 LLMs 特别适合解决科学层次结构固有的规模问题,并能使它们预测物理学或生物学的下一个重大发现。

人工智能还可以将假设的搜索网扩大,并更快地缩小搜索网。因此,人工智能工具可以帮助制定更强大的假说,例如提出更有希望的新药候选物的模型。现在模拟运行的速度比几年前快了好几个数量级,允许科学家在进行真实世界的实验之前在模拟中尝试更多的设计方案。

例如,加州理工学院的科学家们使用人工智能流体模拟模型,自动设计出了一种更好的导管,可以防止细菌逆流造成感染。这种能力将从根本上改变科学发现的增量过程,使研究人员从一开始就能设计出最佳的解决方案,而不像我们多年来在灯泡设计中的灯丝创新中所看到的那样,通过一长串逐渐完善的设计取得进展。

进入实验步骤,人工智能将能够更快、更便宜、更大规模地进行实验。例如,我们可以建立由人工智能驱动的机器,用数百根微管日夜运行,以人类无法比拟的速度创造样品。科学家们可以使用人工智能工具来运行一千个实验,而不是限制自己只做六个实验。

担心下一次拨款、出版或任期进程的科学家们将不再被束缚在成功几率最高的安全实验上;他们将自由地追求更大胆、更跨学科的假设。例如,在评估新分子时,研究人员倾向于坚持使用与我们已经知道的分子结构相似的候选分子,但人工智能模型不必有同样的偏见和限制。

最终,许多科学将在“自动实验室”进行 -- 自动机器人平台与人工智能相结合。在这里,我们可以将人工智能的能力从数字领域带入物理世界。这样的自动实验室已经在 和 等公司甚至出现。

最后,在分析和总结阶段,自动实验室将超越自动化,并根据产生的实验结果,使用 LLM 来解释并推荐下一个要运行的实验。然后,作为研究过程中的合作伙伴,人工智能实验室助理可以订购用品来替换早期实验中使用的用品,并在一夜之间设置和运行下一个推荐的实验。在实验者还在家睡觉的时候,结果就已经准备好了。

可能性和局限性

年轻的研究人员可能会因为这个前景而紧张地在座位上瑟瑟发抖。幸运的是,在这场革命中出现的新工作可能比目前大多数实验室工作更有创造性,且不那么盲目。

人工智能工具可以降低新科学家的准入门槛,并为那些传统上被排除在该领域之外的人开辟机会。随着 LLMs 能够协助构建代码,STEM 学生将不再需要掌握晦涩的编码语言,向新的、非传统的人才打开象牙塔的大门,使科学家更容易接触到他们自己以外的领域。很快,经过专门培训的 LLMs 可能会超越提供书面工作的初稿,如资助提案,并可能被开发为与人类审查员一起提供新论文的“同行”审查。

人工智能工具有令人难以置信的潜力,但我们必须认识到人类接触在哪些方面仍然重要,切忌好高骛远。例如,通过自动实验室成功融合人工智能和机器人技术并不容易。科学家在实验室里学到的很多隐性知识,很难传递给人工智能驱动的机器人技术。同样,在我们将大量的文书工作、研究和分析工作给到它们之前,我们应该认识到当前 LLMs 的局限性,尤其是幻觉。

像 OpenAI 和 DeepMind 这样的公司仍然在新的突破、模型和研究论文方面处于领先地位,但目前的行业主导地位不会永远持续。迄今为止,DeepMind 在专注于具有明确目标和指标的明确定义问题方面表现出色。它最著名的一次成功是在两年一度的结构预测关键评估大赛(Critical Assessment of Structure Prediction)上,该研究团队根据蛋白质氨基酸的顺序预测了蛋白质的确切形状。

从 2006 年到 2016 年,在 CASP 的 1 到 100 分制中,最难类别的平均得分在 30 到 40 左右。突然,在 2018 年,DeepMind 的 AlphaFold 模型的得分高达 58 分。两年后,一个名为 AlphaFold2 的获得了 87 分,将人类竞争对手进一步甩在身后。

得益于开源资源,我们开始看到一种模式,即产业界达到某些基准,然后学术界介入,完善模型。在 DeepMind 发布 AlphaFold 之后,华盛顿大学的 Minkyung Baek 和 David Baker 发布了 RoseTTAFold,它使用 DeepMind 的框架来预测,而不是 AlphaFold 最初可以处理的单一蛋白质结构。更重要的是,学术界更多地被屏蔽在市场的竞争压力之外,因此他们可以大胆地超越吸引 DeepMind 的定义明确的问题和可衡量的成功。

除了达到新的高度之外,人工智能还可以通过解决科学的可复制性危机来帮助验证我们已经知道的东西。大约 的科学家报告说他们无法复制另一位科学家的实验 -- 这是一个令人沮丧的数字。随着人工智能降低运行实验的成本和工作量,在某些情况下,将更容易复制结果或得出无法复制的结论,有助于提高对科学的信任。

可复制性和信任的关键是透明度。在一个理想的世界里,科学中的一切都将是开放的,从没有付费墙的文章到开源的数据、代码和模型。遗憾的是,由于此类模型可能带来危险,因此将所有模型开源并不总是现实的。在许多情况下,完全透明的风险超过了信任和公平的好处。尽管如此,只要我们能够对模型 -- 尤其是用途较为有限的经典人工智能模型 -- 保持透明,我们就应该开源。

监管的重要性

在所有这些领域,必须记住人工智能的固有限制和风险。人工智能是如此强大的工具,因为它使人类能够用更少的时间、更少的教育、更少的设备完成更多的事情。但这些能力也使它成为了可能落入坏人手中的危险武器。罗切斯特大学的教授 Andrew White 与 OpenAI 签约,参与了“”测试,可以在 GPT-4 发布前暴露其风险。使用语言模型并为其提供工具, 发现 GPT-4 可以提出危险的化合物,甚至可以从化学品供应商处订购它们。为了测试这个过程,他让人在第二周将一种(安全的)测试化合物运到他家。OpenAI 表示,在 GPT-4 发布之前,它利用了 White 的发现对其进行了调整。

即使人类的意图完全良好,仍然可能促使人工智能产生不良结果。我们应该减少对创造终结者的担心,正如计算机科学家 所说,我们更应该担心的是成为米达斯国王。这位国王希望自己所接触的一切都变成黄金,正因如此,其意外的一个拥抱也杀死了自己的女儿。

我们没有任何机制来促使人工智能改变其目标,即使它以我们无法预料的方式对其目标作出反应。一个经常被引用的假设是要求 AI 尽可能多地生产回形针。该模型决心完成其目标,劫持了电网,并在回形针不断堆积时杀死了任何试图阻止它的人类。世界变得一片狼藉。人工智能却拍拍屁股走人;它已经完成了它的工作。(为了向这个著名的思想实验致敬,许多 OpenAI 的员工都随身携带着品牌回形针)。

OpenAI 已经设法实施了一系列令人印象深刻的保障措施,但只要 GPT-4 被安置在 OpenAI 的服务器上,这些措施就会一直存在。当有人设法复制该模型并将其放在自己的服务器上时,这一天可能很快就会到来。这样的前沿模型需要得到保护,以防止窃贼拆除其原始开发者精心添加的 AI 安全护栏。

为了解决人工智能有意和无意的不良使用,我们需要对科技巨头和开源模型进行明智的、知情的监管,这不会阻止我们以对科学有益的方式使用人工智能。尽管科技公司在人工智能安全方面取得了长足进步,但政府监管机构目前在制定适当的法律方面准备不足,应该采取更多措施来了解最新发展。

在监管之外,政府 -- 与慈善机构一起 -- 可以支持社会回报率高但经济回报率或学术激励少的科学项目。有几个领域尤其紧迫,包括气候变化、生物安全和大流行病的防范。正是在这些领域,我们最需要人工智能模拟和自动实验室提供的速度和规模。

在安全考虑允许的范围内,政府还可以帮助开发大型、高质量的数据集,例如 AlphaFold 所依赖的数据集。开放数据集是公共产品:它们使许多研究人员受益,但研究人员几乎没有动力自己创建它们。政府和慈善组织可以与大学和公司合作,确定科学中的重大挑战,这些挑战将受益于强大的数据库的使用。

例如,化学有一种统一该领域的语言,这似乎有助于人工智能模型轻松分析。但是,没有人能够正确聚合存储在数十个数据库中的分子特性数据,这使我们无法获得对该领域的见解,而如果我们只有一个来源,人工智能模型就可以实现这一领域的见解。与此同时,生物学缺乏作为物理学或化学基础的已知和可计算的数据,像内在无序蛋白质这样的子领域对我们来说仍然是神秘的。因此,它将需要更加协调一致的努力来理解 -- 甚至是记录数据,以建立一个综合的数据库。

在科学领域广泛采用人工智能的道路是漫长的,我们必须做好很多工作,从建立正确的数据库到实施正确的法规,减少人工智能算法的偏见,再到确保跨境计算资源的平等访问。

尽管如此,这是一个非常乐观的时刻。以前的科学范式转变,如科学过程或大数据的出现,都是内向型的,可以使科学更加精准有条理。与此同时,人工智能是扩张性的,使我们能够以新颖的方式组合信息,并将科学的创造力和进步推到新的高度。返回搜狐,查看更多

责任编辑:

发布于:江西抚州临川区