NVIDIAとオックスフォード大が「backpropagation不要」のAI訓練手法を発表。整数演算だけで100倍速、AI訓練の根本が変わる

AIを訓練する方法そのものが、根底から覆されようとしている。
backpropagation、60年の支配が終わる?
NVIDIAとオックスフォード大学の共同研究チームが「EGGROLL」と呼ばれる新しいAI訓練アルゴリズムを発表した。最大の特徴は、1960年代から機械学習の基礎として君臨してきた誤差逆伝播法(backpropagation)を一切使わないという点だ。
代わりに採用されたのは「Evolution Strategies」ベースのアプローチ。生物の進化を模倣し、パラメータの微小な変異を試して性能が上がる方向だけを残す。backpropのように勾配を計算する必要がなく、整数演算のみで動作する。
100倍速のスループット
EGGROLLの実験結果は衝撃的だ。従来のbackpropベースの訓練と比較して、スループットが最大100倍に達したと報告されている。浮動小数点演算を整数演算に置き換えたことで、専用ハードウェアなしでも大幅な高速化が実現した。
これが意味するのは単なる速度改善ではない。AI訓練に必要な電力と計算リソースの劇的な削減だ。現在、大規模言語モデル(LLM)の訓練には数千万ドルの計算コストがかかる。EGGROLLのアプローチが実用化されれば、そのコスト構造が根本から変わる可能性がある。
なぜNVIDIAがこれを出すのか
一見すると奇妙に映る。NVIDIAのビジネスはGPU販売に依存しており、AI訓練の効率化はGPU需要を減らすリスクがある。だが実際には逆だ。訓練コストが下がれば、AIを使える企業・研究者の裾野が爆発的に広がる。パイ全体が大きくなれば、NVIDIAの取り分も増える。
さらに、整数演算に特化したアーキテクチャはNVIDIAの次世代チップ設計にも直結する。EGGROLLは研究論文であると同時に、NVIDIAのハードウェア戦略の布石でもある。
「AI民主化」の本当の起爆剤
AI開発のコストが下がることは、大企業だけの恩恵ではない。個人開発者や小規模スタートアップが独自のLLMを訓練できるようになれば、OpenAI・Google・Anthropicの寡占構造に風穴が開く。
技術者コミュニティの反応は「次世代パラダイム」と興奮一色だ。懐疑派も「実用化にはまだ数年」と指摘するが、方向性自体を否定する声はほとんどない。
backpropagationが消えるわけではないだろう。だが「唯一の選択肢」ではなくなった。それだけで、AI開発の未来地図は大きく書き換わる。
ソース: NVIDIA / University of Oxford共同研究
この記事が役に立ったら共有してください