生成AI開発基盤事例/サイバーエージェント 日本語に強い「和製生成AIモデル」が誕生 日本屈指のAI企業が描く社会実装の舞台裏

サイバーエージェントは日本語に特化した独自の日本語LLM(大規模言語モデル)を開発した。AIの“性能”を支えるパラメータ数は130億という膨大なもの。既に広告事業で活用を始めたほか、68億パラメータは無償公開され、各方面から耳目を集めた。同社は、さらなる進化に向けて研究開発基盤を増強するため、最新GPUを搭載した「Dell PowerEdge XE9680」を導入。これを活用し、国内最大級のLLM開発、産学連携による自然言語処理技術の研究を加速する計画だ。ここでは、同社が目指すAIの“未来”と開発の“舞台裏”に迫ってみたい。

サイバーエージェントのAI技術は日本屈指

今、あらゆる分野でAIへの期待が高まっている。このAI開発で注目を集めている企業の1つが、サイバーエージェントだ。主力のインターネット広告事業に加え、近年はメディア事業やゲーム事業も大きく成長。国内最大規模のブログサービス「Ameba」、新しい未来のテレビ「ABEMA」などグループ全体で様々な事業を展開している。

これらの事業と並んで、推進しているのがAI技術の研究開発だ。AI研究開発組織「AI Lab」が中心となって産学連携や学術論文の発表などに力を入れるほか、AI・DX領域のサービス開発を行う「AI事業本部」と連携し社会実装にも注力している。その技術力は世界的に高く評価されている。AI分野の論文のインパクトを示すランキング「AI Research Ranking 2022」の1部門「AI研究をリードする企業トップ100」で国内4位、世界49位の評価を得た。

同社が開発したAIにおいて、大きな話題をさらったのが、2023年5月に発表された、日本語に特化した独自の日本語LLM(大規模言語モデル)だ。既存のLLMのほとんどは英語を中心に学習されており、日本語および日本文化に強いLLMは少ない。そこで同社では、保有する大規模な日本語データを生かした独自モデルを開発。今まで以上に自然な日本語の文章を生成する「和製生成AIモデル」を誕生させた。

極予測AIの“勝てる広告”でビジネスを変革

AIの“知力”を左右する指標の1つに「パラメータ」がある。パラメータとは、モデルの学習実行後に獲得される値のこと。この数が多いほど、洞察も深くなる。サイバーエージェントが開発した和製生成AIモデルは130億ものパラメータを実装している。

このAIモデルは既に実用段階にある。広告クリエイティブの制作を支援する「極予測AI(キワミヨソクAI)」の機能などに活用しているのだ。従来の広告クリエイティブは、クリエイターのセンスと経験で制作していたが、どうしても属人的な作業になり、品質を維持するのが難しい。そこで開発したのが極予測AIである。これまでの広告クリエイティブと配信実績のデータに基づき、より効果的なクリエイティブ制作を支援する。

例えば、ある商品のバナー広告を制作する場合、商品や媒体の特性を踏まえ、効果が期待できるキャッチコピーのキーワードや画像のアイデア、その組み合わせ方などをAIが提案する。ここに新たに開発した和製生成AIモデルを適用し、さらなる高度化を図っているわけだ(図1)。

現在配信中で最も効果が出ている既存クリエイティブよりも高い効果が期待できるキーワードや動画、静止画を提案する。その組み合わせによる横断的な効果も予測可能だ。自社LLMを活用することで、より精度の高いコピー生成が出来るようになった

同社のAI戦略にはもう1つ注目すべき点がある。開発した和製生成AIモデルのパラメータ限定版を「OpenCALM(オープンカーム)」と命名し、無償公開したのだ。CALMは、CyberAgent Language Modelsの略だ。パラメータ限定版といっても、その数は68億にものぼる。

OpenCALMは商用利用可能なオープンソース。様々な業種の企業や学術・研究機関に利用してもらうことで、多くの意見やアイデアが得られる。それを日本語LLMの研究開発にフィードバックしていくという。

最新GPU搭載のPowerEdge XE9680サーバーを採用

株式会社サイバーエージェント
グループIT推進本部CIU, Solution Architect
高橋 大輔氏

AIの研究開発には強力なコンピューティングパワーが必要になる。現場のニーズに応えるため、同社が採用したのが、ハイブリッドクラウドだ。これならオンプレのGPUリソースと、パブリッククラウドのGPUリソースを組み合わせるなど、柔軟な使い分けが可能になる。しかし、日本語LLMの研究開発が高度化する中で、パブリッククラウドのGPUリソースの課題が顕在化してきた。

「例えば、GPUリソースをクラウドですぐに調達するのが難しい。最新のGPUがクラウドサービスとして提供されるまでに時間がかかる。利用にあたって制約があり、こちらの要件で柔軟にカスタマイズできない。そんなケースが多々出てきたのです。クラウドとオンプレは適材適所での使い分けが必要だと思うが、今回のケースに限って言えば、中長期的にみてオンプレで運用した方がコストを最適化できると判断しました」と同社でITインフラ構築を担う高橋 大輔氏は打ち明ける。

そこでオンプレのGPU基盤を増強することにした。最終的に選択したのが、最新の「NVIDIA® H100 GPU」を8基搭載可能なデル・テクノロジーズの高密度GPUサーバー「PowerEdge XE9680」である。

専用のTransformer Engineは、自然言語処理のアクセラレータを複数搭載している。これを活用することで、パラメータが兆単位の言語モデルを実装でき、前世代と比較してパフォーマンスが劇的に向上するという。

「デル・テクノロジーズはこのNVIDIA® H100搭載のGPUサーバーの提供を早い段階から発表していたため、有力候補として考えていました。他社サーバーと比較してコストパフォーマンスが高い点も評価しました」(高橋氏)

これまでの実績も大きな選定ポイントになった。2020年には前世代のNVIDIA® A100 GPUを搭載した「PowerEdge XE8545」サーバーを導入したが、その時期はコロナ禍の真只中。「それにもかかわらず、納期は予定通りでした。安定したサプライチェーンは非常に心強い」と高橋氏は語る。

サーバーの性能や信頼性、24時間365日のサポート体制も高く評価している。特にサポートの手厚さは大きな魅力だという。その理由を高橋氏は次のように述べる。

「サーバーは最適な台数で運用しているので、稼働率の低下は致命的な痛手です。他社のサポートは翌営業日オンサイト対応が多い。人を常駐させるサポートもありますが、コストが高く付く。その点、デル・テクノロジーズは4時間以内のオンサイトサポートという高い保守レベルをリーズナブルな価格で利用できます。実際、前機種で迅速なサポート対応を実感しています」

超高速インターコネクトでマルチノード学習

PowerEdge XE9680は合計で6台導入。1台のサーバーにGPUを8基搭載しており、最新のNVIDIA® H100 GPUは全部で48基だ(図2)。2023年5月のゴールデンウィーク明けから本格稼働を開始した。

1つの6Uの筐体に8基のNVIDIA® H100 GPUを搭載可能。この8基のGPUがAIワークロードのパフォーマンスを劇的に向上させる
[写真提供: 株式会社サイバーエージェント]

本格稼働に向けて、様々な工夫も施した。リアドア冷却システムの採用はその1つだ。GPUサーバーは消費電力が大きく、高発熱対策が必要になる場合が多い。(図3)。

PowerEdge XE9680は高密度でコンパクトな6Uモデル。既定のラックスペースにもスッキリと収まる。コンパクトなサイズにもかかわらず冷却効率が高い。
[写真提供:株式会社サイバーエージェント]

リアドア冷却システムは、水冷熱交換器を備えたクーラーが熱負荷に応じて水流と風量を自動調整し、サーバーを冷却する。GPUの熱管理にはPowerEdgeサーバーの管理ツール「iDRAC(アイドラック)」も活用している。「これを使えば、GPUの使用率や消費電力、温度などをリモートで確認できます。稼働状況を把握する上で重宝しています」(高橋氏)。

独自のインターコネクト環境の整備も進めている。PowerEdge XE9680の性能をフル活用するためだ。各サーバーに400Gビット/秒のNICを8枚実装し、マルチノード接続するというもの。RDMA(リモート ダイレクト メモリ アクセス)技術も使い、OSやCPUの負荷を減らし、サーバー間でメモリデータを高速に読み書きすることでレイテンシーを極小化する。

AIの学習プロセスは膨大なGPUパワーが必要になるため、マルチノードで分散学習させる。それでも1つのサイクルで30日かかるものもあるという。「分散学習の場合、サーバーが1台でもスタックするとワークロードを一からやり直さないといけないのです。何日も何週間も掛けた作業がムダになる。そのため、サーバーの稼働率アップに向けたデル・テクノロジーズの手厚いサポートには期待しています」と高橋氏は期待を寄せる。

AIのパラメータを量的・質的に拡充していく

PowerEdge XE9680の本格稼働により、同社は様々なメリットを実感しつつある。「パフォーマンスが大幅に向上したことで、日本語LLMの更新をより早く頻繁に行えるようになると期待しています。日本語LLMの進化速度も向上していくでしょう」と高橋氏は語る。

NVIDIA® H100 GPUを8基搭載したPowerEdge XE9680のパフォーマンスは前世代のNVIDIA® A100 GPUを4基搭載したPowerEdge XE8545と比べて、既に約5.14倍程度向上しているが、アクセラレータを搭載したTransformer Engineへの最適化はまだ完了していない。最適化が完了すれば、最終的に十数倍のパフォーマンス向上が見込めるという。

このハイスペックを生かし、今後は無償公開したOpenCALMのフィードバックも取り入れつつ、国内最大級の日本語LLMの開発を加速していく考えで、日本語LLMの分散並列学習方法の研究開発も進めている。

「こうした活動を積み重ねて日本語LLMのパラメータをさらに増やしていき、和製生成AIモデルの“知力”をさらにパワーアップさせていきたいとLLM開発者と話しています」と高橋氏。同時にパラメータのファインチューニングも進め、業界特化モデルを開発するなど、多様なニーズにも対応していくという。

「デル・テクノロジーズにはGPUロードマップに合わせて、その性能をフルに引き出すサーバーをこれからもスピーディに提供してほしいですね」と高橋氏は話す。

日本で生まれた、日本語に特化した和製生成AIモデルは、多方面から注目を集めている。小売りなどリテール業界や金融業などと連携し、それぞれの固有データを学習し、その業界で使えるような「業界特化型のLLM」を構築するような議論が始まっているという。今後もサイバーエージェントは独自の日本語LLMの研究開発を推進し、AIを活用したビジネスや社会の発展に貢献していく考えだ。

日経BP社の許可により、2023年8月4日~ 2023年9月30日掲載 の 日経 xTECH Special を再構成したものです。
https://special.nikkeibp.co.jp/atclh/NXT/23/delltechnologies0731_03/

<前の記事へ   次の記事へ>

About the Author: Dell Technologies