“複雑な思考ができるAI”、ELYZAが公開 性能は「o1-mini」に匹敵、商用利用も可能 「非リーズニングモデルから開発」

“複雑な思考ができるAI”、ELYZAが公開 性能は「o1-mini」に匹敵、商用利用も可能 「非リーズニングモデルから開発」

東大発のAIベンチャーELYZA(東京都文京区)は5月1日、新たなAIモデル「ELYZA-Thinking-1.0-Qwen-32B」を公開した。米OpenAIのAIモデル「o1」「o3」シリーズのような、推論性能に優れているのが特徴。Apache 2.0ライセンスで公開しており、研究や営利目的での利用が可能だ。

 このAIモデルは、鎖のように少しずつ思考をつなげて推論する手法「CoT」(思考連鎖)を活用し、複雑な論理的思考を行う能力を強化した「リーズニングモデル」(Reasoning Model)だ。中国Alibabaが公開する非推論モデル「Qwen2.5-32B-Instruct」に対して、日本語追加事前学習と、SFT(教師ありファインチューニング)を実行し、日本語での論理的思考能力を高めた。

 パラメータ数は320億で、OpenAIの「o1-mini」に匹敵する性能を達成。数学系のベンチマークでは、特に高い性能を示し、日英両方でo1-miniを上回るスコアを記録したという。

 ELYZAは「この取り組みの特徴は、既に高度な論理的思考能力を備えたReasoning Modelに対して、日本語追加学習を行うのではなく“非Reasoning Model”に対して新たにその能力を付与した点にある」と説明。プロ棋士を破った囲碁AI「AlphaGo」でも使われる技術「モンテカルロ木探索」に着想を得たアルゴリズムを使い、模倣学習を行った。

 また、この開発過程で得たAIモデル「ショートカットモデル」も併せて公開。こちらもApache 2.0ライセンスで、研究や営利目的で利用できる。ショートカットモデルでは、推論モデルが思考した回答を暗記しており、利用者からの質問に反射的に答えることが可能という。

 ショートカットモデルは、パラメータ数が320億と70億の2種類を公開中。なお320億パラメータのモデルについては、OpenAIの「GPT-4o」に匹敵する性能を達成したと説明している。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏