近年来,人工智能(AI)逐渐成为科学研究的得力助手,但其广泛应用也引发了诸多讨论和反思。2024年的诺贝尔化学和物理学奖,五位获奖者都不约而同地与人工智能有所关联,这一现象无疑凸显了AI在基础科学领域的重要地位。
众多科学家,包括诺贝尔委员会的成员,纷纷赞扬人工智能为科学界带来的革命性变化。有诺贝尔奖得主甚至将人工智能誉为“人类历史上最具变革性的技术之一”,并指出其加速科学发现的巨大潜力。
然而,AI在科学领域的迅速崛起并非毫无争议。一些专家指出,人工智能虽然能帮助科学家以更低的成本、更快的速度进行更多研究,但也可能带来一系列新的问题。例如,科学家在急于采用AI的过程中,可能会忽视公众的理解和信任,导致科学与社会需求脱节。
使用人工智能的研究人员往往会陷入三种错觉。首先是“解释深度的错觉”,即认为AI模型擅长预测就意味着它能准确解释现象。以AlphaFold为例,该模型因预测蛋白质结构而获得诺贝尔化学奖,但神经科学领域的研究表明,为优化预测而设计的人工智能模型可能会对潜在的神经生物学机制得出误导性的结论。
其次是“探索广度的错觉”。科学家们可能认为,在探索性研究中,他们已经调查了所有可测试的假设,而实际上,他们只是研究了一组有限的、可以使用AI进行测试的假设。
最后是“客观幻觉”。科学家可能认为AI模型没有偏见,或者能够解释所有可能的人类偏见。然而,现实情况是,所有AI模型都不可避免地反映了其训练数据中存在的偏见和开发者的意图。
以Sakana AI Labs开发的“AI科学家”机器为例,该公司的愿景是开发一个完全由AI驱动的系统,用于自动科学发现。在这个系统中,每个想法都可以变成一篇完整的研究论文,成本仅为15美元。然而,这一极端例子也引发了批评,有人认为该系统产生了大量无意义和价值的“科学垃圾”,使本已不堪重负的同行评审系统更加紧张。
人工智能在科学领域的崛起正值公众对科学和科学家的信任度仍然较高之际,但这种信任是复杂而脆弱的。在COVID大流行期间,人们就见证了“相信科学”的呼吁可能失败,因为科学证据和计算模型往往存在争议、不完整或存在多种解释。
面对气候变化、生物多样性丧失和社会不平等等全球性问题,科学在制定公共政策方面发挥着至关重要的作用。然而,这种判断必须考虑到具体情况,收集来自不同学科和生活经验的输入,并通过当地文化和价值观的视角来解释。因此,科学必须认识到细微差别和背景,以重建公众信任。让人工智能塑造科学的未来可能会破坏这一领域来之不易的进步。
科学家需要意识到,如果允许人工智能在科学探究中发挥主导作用,可能会创造出一种单一的知识文化,这种文化会优先考虑最适合AI的问题、方法、观点和专家。这可能会让我们远离负责任的人工智能所必需的跨学科方法,以及应对社会和环境挑战所需的细致入微的公共推理和对话。
随着21世纪的到来,科学家们被认为与公众达成了一种新的社会契约,即科学家们将他们的才能集中在我们这个时代最紧迫的问题上,以换取公共资金。然而,在将人工智能融入科学研究的过程中,科学界需要解决一些重要问题,如AI使用的“外包”是否可能损害公共资助工作的完整性,以及AI日益增长的环境足迹等。
在没有建立这种新的社会契约的情况下,用人工智能改造科学的想法可能会本末倒置。科学家需要在他们的实践社区和研究利益相关者中就AI的未来进行真正的对话,这些讨论应涉及这一新的社会契约的各个方面,反映共同的目标和价值观。
总之,人工智能在科学领域的广泛应用带来了诸多机遇和挑战。科学家需要谨慎对待AI的引入,确保其不仅有助于科学研究的加速,还能维护公众对科学的信任和尊重。