Inceptionは「Mercury Coderは一般的な大規模言語モデルよりも5~10倍高速でありながら、低コストで高品質の応答が可能です」と述べています。 以下は同じプロンプトをClaude、ChatGPT、Mercury Codeに入力してコードが生成されるまでの時間を計測した結果。
スタンフォード大学、カリフォルニア大学ロサンゼルス校、コーネル大学の教授陣により設立された新世代の大規模言語モデル(LLM)を開発するAIスタートアップのInception Labsが、拡散モデルを取り入れた次世代LLMの拡散大規模言語モデル(dLLM)となる「Mercury」を ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する