点击右上角微信好友
朋友圈
点击浏览器下方“”分享微信好友Safari浏览器请点击“
”按钮
科学技术,既是人工智能(AI)理论和技术发展的源头和基础,也是人工智能的使用者、被影响者。近期,国务院印发《关于深入实施“人工智能+”行动的意见》。其中,“人工智能+”科学技术,列在加快实施重点行动的第一位。中国科学院院士张锦日前在本版撰文指出:AI for Science(AI应用于科学研究领域)已成为当前推动科技创新“破茧成蝶”的重要支撑……不仅代表了AI应用领域的前沿,更成为推动AI自身核心能力升级、最终通往通用人工智能(AGI)的关键驱动力。
“人工智能+”科学技术将给科技界带来哪些机遇与挑战?又该如何保证科技向善?本期,我们邀请多位专家谈谈他们的看法。
AI正深刻地改变科研范式,成为科学发现与技术突破的重要驱动力。但不少科研人员和公众对其产生了不同层面的担忧。AI,究竟是科研的加速器,还是挑战者?
正视AI 是工具不是对手
李重仪(南开大学计算机学院教授)
过去10年,AI技术以惊人的速度发展,并逐步渗透到人类生产和科学发现的方方面面。AI进入科学领域的方式非常广泛,已经涌现出一系列具有代表性的成果和应用。例如,在蛋白质结构预测领域,AlphaFold的出现几乎解决了生物学界长达半个世纪的“结构预测难题”,大幅度加快了药物研发和分子生物学研究的进展。在医疗健康领域,除了医学影像自动诊断,AI还被用于药物靶点预测、临床数据分析、个性化治疗方案推荐,成为医生和科研人员不可或缺的工具。
这些例子表明,AI不仅是科研中的“助手”,更逐渐成为推动科学前沿的重要力量。过去可能需要十年甚至数十年才能攻克的难题,如今在AI的加持下有望在几年甚至几个月内得到突破。
然而,面对突如其来的AI大模型时代,不少科研人员甚至普通大众也产生了不同层面的担忧。
研究方向是否失去意义:一些原本被认为是可以长期研究的科学难题,可能被AI在短时间内攻克,从而让研究者担心自己的研究不再“有价值”。
研究资源的不平衡:由于大模型训练和运行需要巨大的算力和资金支持,很多课题组或中小机构难以参与其中,担心被彻底边缘化。
传统科研方法的“实效”:当AI方法能够轻易超越传统方法时,一些人担心传统科研方法不再被认可。
生成式模型的幻觉问题:大模型在生成答案时可能会出现事实性错误,这在科学研究中可能造成误导。
社会就业的焦虑:有人担心随着AI接管大量工作任务,可能造成科研人员和技术人员大批失业。
这些担忧在一定程度上是合理的,但也需要全面、理性地分析。笔者认为,总体而言,AI对科学研究具有正面、积极的意义。
AI会提升科研效率,这一点已经被广泛接受,这里不再赘述。
关于资源不平衡的问题,并非所有的研究都需要依赖大模型,小模型依旧有巨大的生命力。随着技术的发展,轻量化模型、专用化模型不断涌现,很多课题组即便资金有限,也能利用小模型在具体问题上发挥作用。这可以降低科研的门槛,给更多人“下场”研究的机会。
关于科研方法的问题,传统方法不应被完全抛弃。许多AI的设计灵感正来源于传统的数学与物理方法。物理启发、数学约束等思想在深度学习模型的设计中依然具有重要价值。这同时能解决人工智能的“幻觉”问题——将传统科学方法与AI模型结合,可能孕育出更加稳健、可信的成果。
生成式语言模型的幻觉问题,不应成为“人工智能+”科学技术的阻碍。科学发现始终是一个多环节、多验证的过程,讲求严谨与可验证性。AI提出的结果只是一个参考,最终能否成立,还要经过实验验证、同行评议、临床试验等多重检验。例如,AI可以帮助发现一种可能具有抗癌作用的化合物,但在进入临床前,仍需要大量的实验验证,最终是否使用也必须由医生和监管机构综合判断。换句话说,AI是辅助而非决策者,只要人类把握住最终的决策权,就无需过度担心幻觉问题。
至于科学家会不会被AI取代,笔者认为,AI替代的往往是那些耗时耗力、重复性强的工作,例如大规模数据的清理与统计、冗长文献的整理与初步分析等。这些工作过去需要投入大量人力,如今AI能够快速完成,科研人员正好解放出更多时间和精力,专注于更具创造性、创新性的工作。目前来看,AI在原创性和真正的科学洞见上仍存在明显不足——因为,科学发现不仅需要数据和计算,更需要问题意识、直觉判断、跨学科联想和价值选择。这些能力是AI暂时无法完全替代的。因此,我们与其担心“失业”,不如积极思考如何转变角色,如何与AI协同工作,把AI当作增强人类智慧的工具,而不是竞争对手。
毋庸置疑,AI正在重塑科学研究生态。它既带来了前所未有的机遇,也引发了一些合理的担忧。但从长远看,AI的积极作用远大于潜在风险。我们要做的就是,积极拥抱,探索如何与AI共同进步。
探索更多AI实现路径、率先布局未来技术,才能让我们在包括“人工智能+”科学技术在内的各个领域抢占先机。那么,AI的未来在哪里?
发展AI 融合人脑智慧
李国齐(作者分别系中国科学院自动化研究所研究员)姚满(助理研究员)
2017年问世的Transformer架构(编者注:一种深度学习模型),被认为是目前人工智能大模型的技术基石。其基于简单的神经元和复杂的网络架构,在尺度定律的驱动下,通过增加网络规模、算力资源和数据量提升模型智能水平,并取得了巨大成功。
但这就是AI的未来吗?我们是继续沿着Transformer架构的道路不断扩充参数规模,还是回过头来,向这个世界上最精巧的智能系统——人类大脑,寻求启发?
当前学术界对此仍存在较大争论。支持者,如诺贝尔物理学奖得主、深度学习之父杰弗里·辛顿,图灵奖得主、纽约大学教授杨立昆等著名学者坚持神经科学是AI发展的重要灵感来源。杰弗里·辛顿曾明确表示,克服人工智能局限的关键在于建立计算机、科学和生物学之间的桥梁。反对者则认为,AI的重要成果并未受到神经科学机制的启发,将来或许也不用。
但是,单一路线的系统性风险不容忽视:其在效率、可解释性等方面的内在局限,会沿技术栈被放大并传导至所有下游应用,如Transformer架构在处理长序列时存在二次复杂度增长的问题,严重限制了其在长文本、科学计算等场景中的应用。科学家们有责任前瞻地回答这样的问题:单纯追求规模的增长是否能持续推动AI系统向更高阶段发展?我们是否应该寻求其他突破性的研究方向,来进一步优化现有系统?
在笔者看来,类脑计算,或许将成为未来AI的发展方向。
人脑作为已知最高效的智能系统,以约20瓦的功耗支撑千亿级神经元和千万亿级突触的复杂动态网络,其能效远超现有任何AI系统。这种高效的信息处理机制,尤其是事件驱动、稀疏计算、多尺度动力学等特性,为构建下一代低功耗、高性能AI模型提供了宝贵借鉴。神经科学,尤其是其对人脑工作机制的研究,正为AI未来发展提供一条全新的路径。
然而,神经科学与AI技术之间存在一个明显的鸿沟。从当前的研究来看,神经科学主要侧重于精细的结构和生理细节,强调神经元之间的复杂连接以及大脑尺度的动力学,而AI技术则更注重抽象的结构和计算的高效性,尤其是在大规模并行计算方面。例如,GPU(图形处理器)在处理大规模并行计算时,能够实现高效的计算能力,但却难以高效支持当前神经科学所关注的精细结构和神经元建模。这也就造成了神经科学和AI之间的鸿沟——当前AI模型往往难以将神经科学中的复杂结构融入进来,更遑论将其扩展到大规模的计算模型中。
尽管关于未来AI实现路径的争议仍在,尽管存在这样那样的困难,但AI研究者们给出了选择——脑科学与人工智能的结合已逐渐成为现实,各主要发达国家都把类脑计算、神经网络等的研发,列为未来重点发展的领域。
想在类脑计算领域占据领先地位,就要继续强化前沿交叉研究,加强与神经科学、心理学、数学、计算机科学、量子科学等学科的交叉,拓展深化人工智能基础理论研究范畴,推动下一代人工智能技术在基础模型架构、高效学习范式和复杂认知推理等方面的突破。
可喜的是,中国在这一方向上已经取得若干突破。以笔者所在的研究组为例,我们日前成功研发了类脑大模型“瞬悉1.0”(SpikingBrain)。经过测评,其在多个核心性能上实现了突破。首先,它在极低数据量下实现了高效训练,显著提升了长序列训练效率。其次,它的推理效率得到数量级提升,特别是在超长序列处理上展现出显著优势。这使其在“人工智能+”场景下,如法律/医学文档分析、复杂多智能体模拟、脑机接口、高能粒子物理实验等超长序列日常应用和科学任务建模场景等,具有显著的潜在效率优势。再次,它构建了国产自主可控的类脑大模型生态,支持将现有Transformer模型高效转换为类脑脉冲架构。最后,它设计了多尺度稀疏机制,为低功耗的类脑大模型运行提供了有力支撑。
沿着这个方向,我们或可找到一条融合神经元丰富动力学特性,具有生物合理性和计算高效性的神经网络新路径,构建新一代通用智能模型,从而探索脑科学与人工智能基础模型架构之间的桥梁。
AI不仅是“科研工具的革命”,更是“科研革命的工具”。那么,如何保证这把双刃剑始终向善?
使用AI 基于原则而非利益
李侠(上海交通大学科学史与科学文化研究院教授)姚月(博士研究生)
人工智能带给我们的变革是全领域、全方位的,这个时代的人们,正在见证一场新的产业革命。我们面临的问题之一,是如何让这个被制造出来的未来既是友好的,也是体面的,这需要我们设定一些规则的“护城河”。因此,要加强对人工智能伦理的前瞻性研究——虽然不能一劳永逸地保证永远正确,但至少可以为人工智能的有序发展提供一些可控的防御机制。那么,具体到科技领域,该做些什么准备呢?
我们需要清醒地意识到,随着科技的发展与技术迭代的加速,人工智能会展现出更多的机会与不确定性。在刚刚结束的2025世界人工智能大会上,诺贝尔物理学奖得主杰弗里·辛顿直言,AI已无法消除,人类所能做的只是:培养不会从人类手中夺权的“好AI”。
在AI“军备竞赛”早已展开的当下,作为深度学习领域资深专家的辛顿对于人工智能略带悲观的论点,绝非危言耸听。这里,我们要谈到一个现象——技术脱域。所谓“技术脱域”现象,是指技术脱离人类的控制。这一点在AI上表现得极为明显,GPT-4、AlphaGo等技术软件是一个又一个黑盒子,输出的信息与做出的决定,就是基于各种不透明而又极其复杂的微小信号链。
面对新技术革命的到来,单纯的悲观与乐观都于事无补,为人类共同的未来考虑,必须未雨绸缪设计一些规范来引领人工智能的发展。这其中,充满困难与挑战。
比如,伦理规则的滞后性。伦理规则制定的理想状态是先于技术迭代,但遗憾的是,人类社会中规则的变化总是慢于科技的变化。这就不可避免地会出现“伦理代差”,尤其是针对以AI为代表的高科技,这种滞后性愈发凸显。因此,将不可避免地在某些领域出现“伦理失灵”与“伦理真空”现象,对于全局性的技术而言,这种可能性大大增加。而其一旦发生,或许将付出整个社会难以承受的代价。
比如,难以达成共识。伦理规则的制定需要共识基础。但在AI伦理的制定中,一个非常困难的点在于,由于每个人/群体都要受到特定历史、认知、偏好与价值观等因素的影响,要在规则内容上达成共识非常困难。人与人之间的价值对齐尚且如此困难,目前的研究显示,人—机、机—机之间的价值对齐就更加困难。瑞士社会学家海尔格·诺沃特尼曾提到,苏黎世联邦理工学院的研究团队分析了84份来自世界各地的企业、专家团体、政府、国际组织关于AI发布的伦理文件,约半数来自私营部门,另外半数来自公共机构。研究人员惊讶地发现,竟然没有一条伦理原则是每份文件都提过的。这个结论足以反映,当下社会各界在人工智能科技伦理方面,还只能达成一些有限共识。
尽管有这样那样的问题,但伦理规则设计与“人工智能+”同行甚至先行,是我们的目标,是AI健康发展的必要生态。
笔者认为,人工智能的伦理规则,一个最基本的出发点就是:它应是基于原则而非基于利益的。
宏观上,相关管理部门、科技界应该肩负起更大责任,不能将AI伦理规则的制定完全让位于企业。笔者发现,目前很多AI伦理规则都是AI头部企业率先推出的。而企业本能地会基于其自身利益制定规则,因而可能存在巨大伦理隐患。如一些人工智能产品的算法黏性问题。美国麻省理工学院最新研究表明,长时间用ChatGPT写作,会让大脑“变傻”。而从长远看,一项能让人乐此不疲自愿变傻的技术显然是不道德的。但,主要责任归谁呢?更有甚者,研发者在算法中植入偏见,被指数级扩散后,将可能制造社会的分裂。
针对这种伦理的脆弱性,最直接的解决办法就是公开算法。为避免个人认知的局限性,甚至可以采用算法民主化——只有大多数人都同意的规则,才更有普遍性,才能最大限度地遏制伦理风险的发生。
具体而言,AI伦理的制定可围绕以下四个问题切入:公正问题、责任问题、隐私问题与安全问题。围绕这四个问题,我们可以组织力量牵头制定出一套可以被世界广泛接受并具有普遍性的长效伦理规则。
可以说,在未来AI的发展中,伦理规则竞争的影响力将更长久。因为规则的话语主导权一旦形成,很难转移。从这个意义上说,借助于“人工智能+”的东风,构建基于原则而非利益的AI伦理规则,恰逢其时。
《光明日报》(2025年09月25日 16版)