ディープラーニングモデルの新たな軽量化技術を開発【NEDO、OKI】
DX/IoT/AI 無料高度なAIの小規模・省電力運用に期待、データ利活用社会の実現に貢献
NEDOとOKIは9月9日、多様な分岐・合流のあるネットワーク構造を含むディープラーニング(深層学習)モデルにおいて、認識性能を維持しつつ、メモリ使用量や消費電力を低減する新たなモデル軽量化技術を開発したと発表した。既存のベンチマークとされる高精度モデルに対し、認識精度の劣化を約1%に抑えつつ、演算量を約80%削減することができたという。
この技術により、エッジデバイスなど演算性能や電力消費に制限のある環境への高度なAIの搭載や、サーバ・クラウド環境における高度なAIの小規模・省電力運用などが期待できる。これによって、今後増加が見込まれるIoTアプリケーションへの応用が可能なAI技術の開発が加速され、多様で高度なデータ利活用社会の実現への貢献が見込まれる。
概要
ディープラーニングは、画像や音声などの認識において優れた性能を有し、AI処理のアルゴリズムとしてクラウド上で多く活用されている。一方で、多層化により認識性能を向上させたディープラーニングモデル(以下、モデル)は、演算量・パラメータが多く、大量の演算リソースや電力を必要とします。車載用途やスマートフォン、組み込みIoTデバイスなど多様なエッジデバイスが登場する中、限られた演算リソース上でも高性能なモデルを高速・省電力に実行するために、モデルの軽量化技術が求められている。軽量化技術としては、従来からチャネル・プルーニングという手法が提案されていた(図1)。これは、モデルの畳み込み層から冗長なチャネルを削減し、チャネルに関連する演算・パラメーター・メモリーを削減する技術。しかし、従来手法は、削減率の設定を層毎に行う必要があり、手間がかかる上に全体として最適な削減にならないという課題があった。
こうした背景のもと、NEDOとOKIは、NEDO事業において、モデルの精度を維持しつつ演算リソースを削減するモデル軽量化技術を開発することを目的としたAIエッジ技術の研究開発テーマを推進してきた。そして今般、OKI独自のチャネル・プルーニング技術であるPCAS(Pruning Channels with Attention Statics)(図2)を発展させ、新たなモデル軽量化技術を開発した。PCAS技術は、チャネルの重要度推定にアテンション・モジュールを導入することで、認識性能の維持効果を高めつつ、さらに層単位の削減率設定が不要となる技術。層間に挿入したアテンション・モジュールに後段の層への情報伝播を抑制する構造を持たせ、モデル全体の推論誤差を最小化する学習を経ることで、全体最適による重要度推定を可能にする。今回開発された軽量化技術は、近年のモデル構造の多様性を考慮した新しいアーキテクチャを備え、重要なチャネルを自動選択することで認識性能を維持しつつ、演算量を大幅に削減することに成功したという(図3)。
同技術開発により、エッジデバイスなど演算性能や電力消費に制限のある環境への高度なAIの搭載や、サーバ・クラウド環境における高度なAIの小規模・省電力運用などが期待できる。これによって、今後増加が見込まれるIoTアプリケーションへの応用が可能なAI技術の開発が加速され、多様で高度なデータ利活用社会の実現への貢献が見込まれる。
今回の成果は英国カーディフ大学で9月9日から開催されるコンピュータービジョンと機械学習に関する国際学会「BMVC(British Machine Vision Conference)2019」において、OKIが発表する。
今回の成果
今回、NEDOとOKIが新たに開発した軽量化手法は、PCAS技術を発展させた近年の多様な分岐・合流経路を含むモデルに柔軟に対応できるアーキテクチャ。モデル内の分岐経路では、経路ごとに認識性能に寄与する重要なチャネルが異なるため、その差異を吸収する必要がある。そこで、分岐部においては、単一のチャネルに対して複数のアテンション・モジュールを導入することにより、複数経路のチャネルの重要度を全体最適で推定する。さらに、経路ごとに異なるチャネル構成の不一致を整合する仕組みと、学習過程の詳細な分析に基づく誤差伝播量の制御方法を開発し、多様なモデルに対して認識性能を最大限に引き出すことに成功した。
この技術を用いると、演算量の削減により、高速かつ低消費電力でAI処理を実行することが可能となる。測定の結果、従来、ベンチマークとして一般的に用いられる高精度モデルへの適用においては、認識精度劣化を約1%に抑えながら、積和演算回数と処理時間をそれぞれ約80%削減した。
今後の予定
NEDOとOKIは今後について「今回開発した軽量化技術を低ビット演算環境にも対応し、さらなる高度化と高効率化に取り組むほか、大規模な認識モデルへの適用にも取り組み、高度なAIを軽量かつ省電力に実行できる技術の確立を目指す」としている。