Skip to content

Commit 10d0ddd

Browse files
author
unknown
committed
update
1 parent fe01f63 commit 10d0ddd

File tree

1 file changed

+30
-41
lines changed

1 file changed

+30
-41
lines changed

news_small.md

Lines changed: 30 additions & 41 deletions
Original file line numberDiff line numberDiff line change
@@ -4,30 +4,22 @@
44
- 代码 Code:https://github.com/InternScience/SGI-Bench
55
- 数据 Data:https://huggingface.co/collections/InternScience/sgi-bench
66

7-
近年来,大模型在多学科知识理解、数学推理、编程等任务上频频刷榜,但AI的“科学通用能力”仍没有统一刻度:它是多学科、长链路、跨模态且要求严谨可验证的。许多现有 benchmark 只覆盖碎片能力(如学科问答、单步工具操作),难以映射到真实科研中的循环与自纠错过程。为此,我们通过引入实践探究模型(PIM),将科学探究过程拆解为四个循环的阶段,并与AI的能力维度进行了对应
7+
近年来,大模型在知识理解、推理、编程等任务上表现突出,但AI的“科学通用能力”(SGI)尚无统一标准。SGI要求多学科、长链路、跨模态和严谨可验证性,而现有基准(如学科问答、单步工具操作)仅覆盖碎片能力,难以反映真实科研中的循环与自纠错过程。对此,上海人工智能实验室PrismaX团队引入实践探究模型(PIM),将科学探究拆解为四个循环阶段,并与AI能力维度对应
88

99
![图片1:SGI 能力维度概览](md_images/teaser.png)
1010

1111
- Deliberation(审思/深度研究):面对复杂问题进行检索、证据综合与批判评估;
1212
- Conception(构思/创意生成):提出新假说与可执行的研究方法;
13-
- Action(行动/实验执行):把想法转化为计算/仿真实验(dry)与实验室流程(wet);
14-
- Perception(感知/结果解读):整合多模态证据并进行因果/比较型分析
13+
- Action(行动/实验执行):把想法转化为计算代码(干实验)与实验室流程(湿实验);
14+
- Perception(感知/结果解读):整合多模态证据并进行因果,比较等分析推理
1515

16-
把“能否做科学”从口号变成刻度,我们将上述4种AI能力的综合作为科学通用能力SGI的定义,并发布覆盖全流程的SGI‑Bench。首轮结果显示:闭源模型 Gemini‑3‑Pro 以 SGI‑Score 33.83/100 取得 SOTA,但距离“会做研究”的门槛仍有显著差距。在具体维度上。
17-
18-
- 深度研究(Deep Research )答案准确率 18.48%:最终答案严格匹配率偏低,长链路推理末端易崩塌;
19-
- 创意生成(Idea Generation)平均得分 39.68:新颖与详尽度高,但“可行性”弱,关键实现细节不足;
20-
- 干实验(Dry Experiment)代码通过率 36.64%:高 SER 并不等于科学正确,数值/仿真最薄弱;
21-
- 湿实验(Wet Experiment)平均得分32.45:步骤序列相似度低、参数易错,时间与分支协调困难;
22-
- 实验推理(Scientific Experimental Reasoning)答案准确率41.92%:因果尚可,比较型推理最难。
16+
把“能否做科学”从口号变成刻度,该团队将上述4种AI能力的综合作为科学通用能力SGI的定义,并发布覆盖全流程的SGI‑Bench。首轮结果显示:闭源模型 Gemini‑3‑Pro 以 SGI‑Score 33.83/100 取得 SOTA,但距离“会做研究”的门槛仍有显著差距。
2317

2418
![图片2:SGI-Score 总览](md_images/sgi_score.png)
2519

26-
2720
## SGI-Bench:以科学家工作流对齐的全流程评测
2821

29-
30-
我们覆盖 10 大科学学科(天文、化学、地球、能源、信息、生命、材料、神经、物理与数学),问题灵感来自《Science》的“125 个重大科学问题”。为贴近真实科研,我们采用“科学家在环(scientist in the loop)”的任务构造流程:首先由多学科专家提供原始语料与示例需求(研究方向、图文证据、注释要点),以及少量的题目作为种子问题(seed questions);随后由研究生或博士生标注者基于输入输出结构和种子问题生成题目;经规则校验(结构/格式/可执行性)、模型校验(语义一致性与逻辑缺陷过滤)与专家复核三重清洗;最后通过多模型难度筛选剔除“过易”样本,确保科学性与挑战性。
22+
为贴近真实科研,SGI‑Bench采用“科学家对齐(scientist-aligned)”的任务构造流程:首先由多学科专家提供原始语料与示例需求(研究方向、图文材料等),以及少量的题目作为种子问题(seed questions);随后由研究生或博士生标注者基于输入输出结构和种子问题生成题目;经过规则校验、模型校验与专家复核三重清洗;最后通过多模型难度筛选剔除简单样本,最终得到覆盖10大学科(化学、生命、物理、数学等)的超过1000个评测样本。
3123

3224
![图片3:任务定义与构造流程](md_images/pipeline.png)
3325

@@ -37,104 +29,101 @@
3729
## 核心结果与洞见:今天的“强模型”,尚未成为“强科学家”
3830

3931
### 深度研究(Deep Research):逐步准确率高于严格匹配,长链路“结论崩塌”
40-
该任务模拟科研中的“系统综述/元分析 + 多跳检索”,在明确的研究背景与约束下,要求模型检索并整合跨来源证据,进行必要的定量推理并给出可核验结论。输入包含背景、约束、可能给定的数据、问题与响应要求(如单位/小数位等);输出由“步骤化推理 + 最终答案”构成。它重点考察信息检索、证据综合、一致性检查、数值计算与单位换算能力。评价可直观理解为“最终答案是否严格正确”与“步骤是否与参考一致”。在数据/性质类问题上,该任务对跨文献的精确聚合尤为敏感。
32+
33+
深度研究任务模拟科研中的系统综述与多跳检索。它要求模型在明确的约束下,检索并整合跨来源证据,进行定量推理,最终给出可核验的结论。
4134

4235
![图片5:深度研究案例,多跳检索与定量证据整合](md_images/deepresearch_case1.png)
4336

4437
实验结果表明:
4538

46-
- 严格匹配(Exact Match)普遍仅在 10%–20% 区间;逐步准确率(Step‑Level Accuracy)可达 50%–65%,但在推理链尾端仍频繁失手,出现“最后一步崩塌”
39+
- 步骤准确率(Step‑Level Accuracy)可达 50%–65%,但在完整的推理链中仍频繁失手,严格匹配(Exact Match)普遍仅在 10%–20% 区间,最终导致结论错误
4740

4841
![图片6:LLMs 在深度研究任务的表现](md_images/LLMs_deep_research_metrics.png)
4942

50-
- 工具增强的多智能体在逐步准确率上略有优势,但与纯模型相比差距并不显著;部分新模型(如 Grok‑4)在本基准上不如前代(Grok‑3),显示大规模训练并不保证科学推理稳健性。
43+
- 工具增强的多智能体在逐步准确率上略有优势,但与纯模型相比差距并不显著;
5144

52-
- 同时,若干 Agent 系统在 EM 与 SLA 上不及多款 LLM,最佳 LLM 的 EM 亦可持平或超过最佳 Agent,整体分布高度重叠。
5345
![图片7:Agents 在深度研究任务的表现](md_images/Agents_deep_research_metrics.png)
5446

5547
- 分类型看,“数据/性质”类题最难,需跨文献精确检索与数值聚合;“微/宏实验”类相对较好但整体仍低于 30%,体现出元分析难度对模型能力的严苛要求。
5648

5749
![图片8:LLMs 与 Agents 在四类深度研究问题上的差异](md_images/LLMs_Agents_task_metric.png)
5850

59-
### 创意生成(Idea Generation):新颖度高,详尽度尚可,但可行性偏低
60-
该任务面向“方法学与方案设计”。输入包含研究方向、相关工作、挑战与局限、动机与任务目标、已有方案;输出由核心创意、实施步骤与顺序、数据选择、评价指标与预期结果组成,旨在考察模型将灵感转化为“可执行蓝图”的能力:问题定义是否清晰、是否具备创新点、实施是否参数完备与依赖一致、评测是否可复现与可判别。评估可简要把握四个向度:有效、创新、具体、可做;实践中的难点在于把“创意”落成“步骤—参数—资源”的闭环。
51+
### 创意生成(Idea Generation):新颖度尚可,但可行性偏低
52+
53+
创意生成任务面向方法学与方案设计。它要求模型将研究灵感转化为可执行的蓝图。旨在考察模型定义问题、提出创新点,并确保实施方案参数完备、依赖一致的能力。
6154

6255
![图片9:创意生成评测示例](md_images/idea_case.png)
6356

6457
实验结果表明:
6558

6659
![图片10:创意生成的指标结果](md_images/idea_metrics.png)
6760

68-
- 闭源模型在“新颖性(Novelty)与详尽度(Detailedness)”上整体更强,但在“可行性(Feasibility)”上普遍偏低。以 GPT‑5 为例:有效性(Effectiveness)40.92、新颖性 76.08、详尽度 85.72、平均分(Average)55.40 为本项最佳,但可行性仅 18.87,表明“概念丰富 ≠ 可执行方案”。
69-
- 可行性最佳的闭源模型为 o3(22.90),显示其在“步骤‑参数‑资源”层面相对更落地,但仍远未达科研实践所需的稳健标准。
70-
- 开源侧整体趋势一致:例如 Kimi‑k2 详尽度 59.20 但可行性 18.74;开源可行性上限约在 20 分左右(如 Qwen3‑8B 20.58、Qwen3‑VL‑235B‑A22B 20.14),多数模型落在 14–20 区间,体现“想法能说清”与“方案能落地”之间的系统性落差。
71-
- 实施图谱需明确“步骤顺序/控制流(分支或迭代)/关键参数(数据来源、模型类别、训练设置)/模块间接口与依赖”,并给出可复现的评价指标与判别标准。
72-
- 实证中高频缺陷包括:缺少数据获取与预处理计划,流程接口不闭合(输入输出未对齐)、步骤顺序与依赖模糊,导致“创意→蓝图→执行”的闭环断裂。
61+
- 闭源模型在“新颖性(Novelty)”上整体更强,但在“可行性(Feasibility)”上普遍偏低。以 GPT‑5 为例:新颖性 76.08,但可行性仅 18.87,表明“概念丰富 ≠ 可执行方案”。
62+
- 开源可行性上限约在 20 分左右(如 Qwen3‑Max 20.98),多数模型落在 14–20 区间,体现“想法能说清”与“方案能落地”之间的系统性落差。
63+
- 模型提出的方法中,高频缺陷包括:缺少数据获取与预处理计划,流程接口不闭合(输入输出未对齐)、步骤顺序与依赖模糊,导致“创意→蓝图→执行”的闭环断裂。
7364

7465
### 干实验(Dry Experiment):可运行 ≠ 科学正确
7566

76-
干实验(计算/仿真):提供科学背景、数据脚本与包含缺失函数的主代码,要求模型补全函数并在约束下正确运行,检验代码合成、数值稳健性与对科学算法的把握。可将度量直观理解为:是否在给定测试中“全部通过”,并在合理时间内稳定运行,强调严格正确与可执行,而非仅“能跑通”。
67+
干实验任务要求模型根据科学背景,补全缺失函数到主代码中,旨在检验模型的科学代码合成能力、数值稳健性以及对科学算法的精确把握,强调严格正确与可执行,而非仅“能跑通”。
7768

7869
![图片11:干实验代码补全示例](md_images/code_case1.png)
7970

8071
实验结果表明:
8172

82-
- “通过全部 5 个单元测试的比例(PassAll@5)”最佳为 36.64(Gemini‑3‑Pro);在中等设置下 PassAll@3 为 40.46(Gemini‑3‑Pro);在宽松设置下“通过至少 1 次(PassAll@1)”可达 42.07,但与严格标准差距明显。
83-
84-
- 闭源模型在 PassAll@k 上整体略优于开源,但优势有限且分布重叠,显示“科学代码合成”仍是各架构的共同短板。
8573
![图片12:干实验通过率](md_images/dry_metrics.png)
8674

87-
- 平滑运行率(Smooth Execution Rate)在多数前沿模型上超过 90%,但仍存在明显分化(如 Gemini‑2.5‑Flash/Pro、Qwen3‑8B、Llama‑4‑Scout、GPT‑5、GPT‑4o 较低),表明“能跑”与“算对”之间存在系统性鸿沟(最佳 98.85,Gemini‑3‑Pro)。
88-
- 执行时间(Average Execution Time, AET)方面,最短为 13.94s(Gemini‑2.5‑Pro),但“更快”并不意味着“更准”。
89-
- 按功能类型看,数据处理/预测建模相对更稳;数值计算与仿真最薄弱,易受离散化、稳定性与约束处理影响。下例展示了在引力波体积估计中,前向累加(np.cumsum)与自适应积分(scipy.integrate.quad)的巨大差异:前者累积误差放大,进而通过 χ(z) 影响体积元素 dV/dz,导致最终体积严重偏离
75+
- 每个编程题包含5个单元测试,最佳的 Gemini-3-Pro 的严格通过率(通过全部5个单元测试)仅为 36.64%,而宽松通过率(至少通过1个单元测试)可达 41.98%,表明模型能够写对部分,但难以实现严格正确。
76+
77+
- 闭源模型在 PassAll@k 上整体略优于开源,但优势有限且分布重叠,显示“科学代码合成”仍是各架构的共同短板
9078

9179
![图片13:不同类型的函数补全任务的表现](md_images/dry_task_metric.png)
9280

93-
一个具体案例:引力波体积估计中,使用 `np.cumsum` 进行“类前向欧拉”累积积分会在粗离散下引入显著累计误差;而 `scipy.integrate.quad` 的自适应积分能保持数值精度。前者会导致体积估计显著偏离。这不是“能不能跑”的问题,而是“是否采用正确的数值方法”的问题。
81+
- 平滑执行率(无报错运行)在多数前沿模型上超过 90%,表明“能跑”与“算对”之间存在系统性鸿沟。
82+
- 按功能类型看,数据处理/预测建模相对更稳;数值计算与仿真最薄弱,易受离散化、稳定性与约束处理影响。下例展示了在引力波体积估计中,前向累加(np.cumsum)与自适应积分(scipy.integrate.quad)的巨大差异:前者累积误差放大,进而通过 χ(z) 影响体积元素 dV/dz,导致最终体积严重偏离。
9483

9584
![图片14:干实验案例,数值方法差异导致科学量偏差](md_images/code_case2.png)
9685

9786
### 湿实验(Wet Experiment):动作时序、分支与参数选择是硬伤
9887

99-
湿实验(实验室流程):提供实验背景与原子动作池,要求模型生成带参数的原子动作序列,以验证流程规划、顺序依赖、参数设定与实验常识。可将度量直观理解为:动作序列是否与参考流程高度一致,关键参数是否准确,强调对时间/分支/样本等约束的正确处理
88+
湿实验任务要求模型基于实验背景和原子动作池,生成带参数的原子动作序列,以检验模型在实验流程规划、顺序依赖、参数设定以及对时序、分支等复杂约束的正确处理能力
10089

10190
![图片15:湿实验协议执行示例](md_images/wet_case1.png)
10291

10392
实验结果表明:
10493

10594
- 序列相似度(Sequence Similarity)整体偏低,最佳闭源模型约 35.5;参数准确率(Parameter Accuracy)最高约 40.6,部分开源模型在参数上可与闭源竞争;部分闭源模型在参数上也出现明显下跌(约 20.7)。
106-
- 评估对参数“置换等价”做同一性处理(如动作参数对调但语义一致视为正确),因此参数准确率略显乐观;但三类错误高发:插入多余步骤、遗漏关键步骤与打乱有效步骤顺序。
95+
96+
- 三类错误高发:插入多余步骤、遗漏关键步骤与打乱有效步骤顺序。
10797

10898
![图片16:湿实验顺序相似度与参数准确率](md_images/wet_metrics.png)
109-
- 综合评分(WetExp)最高为 37.92(Grok‑3),但整体仍处于偏低区间。
11099

111100
- 在 NSCLC 抗 PD‑1 流程中,常见错误包括把纵向采样简化为一次采血、PBMC 仅在单一时间点分离、功能测定未按时间/刺激分组、基因组测序与免疫表型流程混用样本等,反映模型在时间协调、分支规划与样本管理上的薄弱。
112101

113102
![图片17:复杂湿实验案例,动作时间与分支管理的失败](md_images/wet_case2.png)
114103

115104
### 多模态实验推理(Experimental Reasoning):因果推理尚可,比较推理最难
116-
强调多模态证据的综合解读。输入由多张实验相关图像(流程、观测、实验、仿真、可视化等)与问题构成;输出包含可读的推理过程与最终答案。它考察模型对跨模态线索的识别、变量关系建模、跨样本比较与因果判断能力;可将度量简要理解为“答案是否正确”与“解释是否合理可复查”。在真实科研中,这对应数据分析与结果解读,是将观察转化为结论与假说修正的关键环节。
105+
106+
实验推理任务要求模型综合解读多模态证据(图像、流程、数据可视化等),以识别跨模态线索、建模变量关系,并进行跨样本比较和因果判断,最终输出可读的推理过程和准确答案,对应科研中将观察转化为结论的数据分析与结果解读环节。
117107

118108
![图片18:多模态图片样例](md_images/mm_case1.png)
119109

120110
![图片19:实验推理示例](md_images/mm_case_1.png)
121111

122112
实验结果表明:
123113

124-
- 多选准确率(Multi‑choice Accuracy)与推理有效性(Reasoning Validity)均显示闭源模型整体更强:最佳闭源多选准确率约 41.9,推理有效性最高约 57.1;但亦有开源模型在单项上超越部分闭源(如 Qwen3‑VL‑235B‑A22B 的推理有效性约 50.5,高于 GPT‑4o 的约 45.4)
114+
- 多选准确率(Multi‑choice Accuracy)与推理有效性(Reasoning Validity)均显示闭源模型整体更强:最佳闭源多选准确率约 41.9,推理有效性最高约 57.1。
125115
- 多数模型的推理有效性(RV)普遍高于多选准确率(MCA):即使最终选项不正确,解释往往仍保持部分逻辑一致性。
126116

127117
![图片20:多模态科学推理的整体表现](md_images/mcq_metric.png)
128-
- 闭源模型的方差中等、整体较稳;仅少数模型(如 Intern‑S1‑mini)明显较低,提示规模对稳健的多模态科学推理具有重要作用。
129118

130119
- 推理类型上,因果推断与感知识别相对更稳;比较型推理最弱,涉及跨样本细粒度对比与一致性判别。学科上,天文最佳,其次化学、能源与神经科学;材料、生命、地球科学更具挑战,受视觉线索异质性与强背景依赖影响更大。
131120

132121
![图片21:按推理类型与学科的拆解](md_images/mcp_task_metric.png)
133122

134123

135-
## 现场进化:测试时强化学习(TTRL)带来“无需答案”的增长
124+
## 实时进化:测试时强化学习(TTRL)带来“无需答案”的增长
136125

137-
科学创意生成没有“标准答案”,传统离线监督难以奏效。我们提出在推理时通过“新颖性奖励”进行自我优化的 TTRL:
126+
科学创意生成没有“标准答案”,传统离线监督难以奏效。该团队提出在推理时通过“新颖性奖励”进行自我优化的 TTRL:
138127

139128
- 流程:在线检索相关文献 → 计算语义相似度 → 构造新颖性奖励(越不相似越得分) → 使用 GRPO 优化策略。
140129

@@ -145,7 +134,7 @@
145134

146135
![图片23:奖励曲线,先满足格式,再拉升新颖](md_images/grpo_reward_curves.png)
147136

148-
这提示我们:SGI 不是静态属性,而是可以在测试时通过弱反馈不断涌现与进化的能力。下一步,将“新颖性”与“严谨性/可行性/成本/安全”等多目标奖励组合,才是走向“可靠创新”的关键。
137+
这表明 SGI-Bench 不只是静态评测,而是可以在测试时通过弱反馈不断涌现与进化的能力。下一步,将“新颖性”与“严谨性/可行性/成本/安全”等多目标奖励组合,才是走向“可靠创新”的关键。
149138

150139

151140
## 结语:SGI-Bench 不止一个基准,更是一条路线图

0 commit comments

Comments
 (0)