本周, 佛罗里达大学的研究人员发现,虽然人工智能可以成为有价值的助手,但它无法在许多关键领域取代人类科学家。
研究人员测试了流行的生成式人工智能模型(包括 OpenAI 的 ChatGPT、微软的 Copilot 和谷歌的 Gemini)处理研究过程各个阶段的能力。他们让这些人工智能系统经历了学术研究的六个阶段——构思、文献综述、研究设计、记录结果、扩展研究和最终手稿制作——同时限制了任何人为干预。他们发现,这些系统的能力和局限性参差不齐。
尽管如此,日本公司Sakana 本月宣布,其“人工智能科学家”撰写的一篇论文在顶级机器学习会议研讨会上通过了同行评审,这可能是完全由人工智能生成的论文首次通过同行评审。
该公司表示:“我们相信下一代人工智能科学家将迎来科学的新时代。人工智能能够生成整篇论文,并在顶级机器学习国际会议研讨会上通过同行评审,这一事实肯定预示着未来的进步。但这仅仅是个开始。人工智能将继续进步,或许是指数级的进步。在未来的某个时候,人工智能很可能能够生成与人类水平相当或超过人类水平的论文。”
Sakana 表示,将人工智能科学与人类科学进行比较并不是最终目的。“最重要的是,人类和人工智能科学的发现将有助于人类繁荣,例如导致疾病的治疗和阐明支配宇宙的规律。”
澳大利亚皇家墨尔本理工大学计算机技术学院院长 Karin Verspoor 在评论Sakana 去年的早期发展时指出,Sakana 声称其人工智能工具可以完成科学实验的整个生命周期,每篇论文的成本仅为 15 美元——比科学家的午餐成本还低。Verspoor 担心的一点是,如果人工智能生成的论文充斥着科学文献,未来的人工智能系统可能会接受人工智能输出的训练,并在创新方面变得越来越无能。
然而,这对科学的影响远不止于此。“科学界已经存在不良行为者,包括大量制造假论文的‘论文工厂’。当一篇科学论文只需要 15 美元和一个模糊的初始提示就能制作出来时,这个问题只会变得更糟。在大量自动生成的研究中检查错误的需求可能会迅速压垮真正的科学家的能力。”
Miryam Naddaf 上周在《自然》杂志上发表的一篇评论强调了人工智能在同行评审过程中的日益广泛应用。“人工智能系统已经改变了同行评审——有时是在出版商的鼓励下,有时则违反了他们的规则。出版商和研究人员都在测试人工智能产品,以标记稿件文本、数据、代码和参考文献中的错误,引导审稿人获得更具建设性的反馈并润色他们的论文。一些新网站甚至只需单击一下即可提供完整的人工智能评论。”
文章引用了西雅图华盛顿大学进化生物学家卡尔·伯格斯特罗姆的话。他说,如果评论者开始依赖人工智能,从而跳过撰写评论的大部分流程,他们就有可能提供肤浅的分析。“写作就是思考,”伯格斯特罗姆说。