韩半岛

韩国型推理AI的数学强于中国的DeepSeek,但语言方面落后

LG公开韩国首个模型“EXAONE Deep”

柳志韩 朝鲜日报记者

查看韩文原文
▲ 图片 = 盖蒂图片社
18日,LG公开了国内首个推理型人工智能(AI)模型。推理型模型是一种AI模型,可以像人一样经过逻辑和分阶段的思维过程,给出答案。与在已经学习过的数据中寻找答案的传统模型存在差异。最近以低成本、高性能的AI模型震撼全球的中国的DeepSeek就是典型的推理型模型。包括DeepSeek在内的OpenAI等主要大科技公司都投入到了推理型模型的开发中,韩国也开发出了与之竞争的模型。LG面向普通公众公开了AI模型,但未允许普通人使用像ChatGPT的AI服务,只是用于集团的自主产品开发等。

▲ 制图 = 杨真京
在数学和科学方面性能出色

LG AI研究院当天公开了“EXAONE Deep”,主力模型为“EXAONE Deep -32B”。AI在学习和推理时,作为将数据相互连接起来的单位的参数有320亿个。参数越多,AI的性能就越好,但如果想驱动它,就需要越多的AI芯片。因此,最近在尽量减少参数的同时提高性能的竞争非常激烈。

DeepSeek-R1有6710亿个参数。EXAONE Deep -32B仅为DeepSeek-R1的5%左右,但性能可与之媲美。实际上,与DeepSeek、阿里巴巴等主要推理型模型进行性能比较的结果表明,EXAONE Deep -32B在数学方面的表现尤为出色。在2024年美国数学奥林匹克竞赛的问题中,EXAONE Deep以90分超越了DeepSeek-R1(86.7分),还领先于参数相同的阿里巴巴QwQ-32B(86.7分)。在韩国2025年高考数学题领域,EXAONE Deep也以94.5分创下了与其他模式相比较的最高分。在博士水平的科学题目中,EXAONE Deep的得分为66.1分,高于阿里巴巴QwQ-32B的63.3分。

但EXAONE Deep在编码能力和语言能力上落后于其他模型。在评估语言能力的项目“多课题语言理解”中,得分为83分,不及阿里巴巴(87.4)、DeepSeek(90.8)。业界相关人士表示:“推理型模型特别适用于解决数学或科学问题。语言能力与参数较大的模型相比,性能必然会落后。”

LG AI研究院还公开了进一步减少参数的轻型模型“EXAONE Deep -7.8B”和On-Device模型“EXAONE Deep -2.4B”。LG AI研究院表示:“轻型模型虽然只有32B模型24%的参数,但性能仍维持在95%,搭载在设备上的On-Device模型虽然只有7.5%的参数,但性能却能达到86%。”LG以“开放源代码”的方式公开了可以称为AI模型设计图的“源代码”,供其他开发者使用。DeepSeek也采用了这种开源方式。

LG向公众免费公开了“源代码”,但目前AI模型仅限在企业内部使用。因为如果想像Chat GPT一样供普通人使用,需要一个巨大的数据中心,至少要花费数万亿韩元。LG计划分阶段将服务扩展成B2B形式。

开发轻便廉价的推理型AI

NAVER是韩国企业中和LG同样开发AI模型的公司。NAVER于2023年开发出AI模型“HyperCLOVA X”。近期经过升级后,参数减少了约60%,同时加强了推理性能。NAVER表示:“HyperCLOVA X新模型的运营成本比此前的模型降低了50%以上。”NAVER还在开发专门用于推理的AI模型。韩国代表性的AI初创企业Upstage最近也在正式着手开发推理型AI。

韩国企业投入推理型模型开发,是为了实现“AI代理(秘书)”。为了打造与人近似的AI,需要像人一样思考的推理型模型。AI代理会掌握各种情况,代替人进行机票预订或预约餐厅等工作。KAIST教授金祯浩说:“目前ChatGPT等生成型AI大部分用于问答,但如果将推理型AI植入智能手机和电视,用户需要做的事情将在很大程度上被AI替代。”

☞推理型模型

像ChatGPT一样的生成型AI会将之前学习过的内容中与正确答案最接近的内容作为答案。相反,推理型模型会像人一样经过逻辑和阶段性的思维过程,即使不是学习过的内容,也可以根据现有数据得出新的答案。就像在解答数学题时,经过多个阶段的解题过程来寻找答案一样。

输入 : 2025-03-19 09:58  |  更新 : 2025-03-19 11:23

朝鮮日報中文版 cn.chosun.com
本文版权归朝鲜日报网所有, 对于抄袭者将采取法律措施应对

TOP