人工知能

We Power AI - グリッドからコアまで

人工知能(AI)アプリケーションの急速な進歩により、データセンターのエネルギー需要は大幅に増加しています。これにより、環境への責任を維持しながら、AIテクノロジーのスケーラビリティを向上させるという最重要課題が生じます。この記事では、この課題に対処するためのソリューションの概要について説明します。

Internet of Things
Edge AI
Energy
Data centers
記事

現代のテクノロジーにおけるAIの役割は変革的であり、基本的には半導体が提供する能力に依存しています。半導体はAIの中核をなすものです。AIシステムが機能するために必要な膨大な量のデータを強化、収集、処理、管理するのに役立ちます。これには、基本的な計算から、AIがデータから「学習」できるようにする複雑な機械学習タスクまで、あらゆるものが含まれます。

2010年以降、年間に生成されるデータ量は年々増加し、2ゼタバイトからスタートしています。2025年までに、データ量は175ゼタバイトに増加すると予想されており、これはわずか15年間で145倍以上に増加すると予想されています。

人工知能におけるデータの重要性は、いくら強調してもし過ぎることはありません。実際、人工知能、特に機械学習は、モデルのトレーニングに膨大な量のデータに大きく依存しており、ドキュメント、画像、温度や湿度などのセンサーの読み取り値など、さまざまな形式を網羅できます。このデータを分析することで、AIシステムはパターンと関係性を特定し、それを使用して予測、決定、出力の生成を行うことができます。AIシステムのトレーニングに使用されるデータの種類は、AIが開発されている特定のタスクと密接に関連しています。たとえば、大規模言語モデルなどのテキスト生成AIシステムは、効果的に機能するために大量のテキストデータを必要としますが、道路交通に関する予測分析は、正確な予測を行うためにセンサーデータに依存する場合があります。最終的に、AIシステムで使用されるデータの質と量は、その精度、信頼性、およびパフォーマンスに直接影響します。

データセンターは、AIのバックボーンとして重要な役割を果たしています。彼らは、これらの膨大なデータの流れを24時間処理しなければなりません。AI、特に生成AIは、このデータの増加を加速させ、増え続けるデータ需要には、シームレスな接続性、より高い帯域幅、広域カバレッジ、および多くの演算能力が必要であると私たちは考えています。

AIアプリケーションの急速な進歩により、データセンター内の電力需要は大幅に増加しています。AIモデルの学習や実行に電力が必要な理由は、機械学習アルゴリズムの複雑な計算に必要な演算能力にあります。最新のAIモデルの学習に必要な計算能力は、2012年以降、約3.4か月ごとに倍増しています。このコンピューティング要件の指数関数的な増加は、エネルギー要件の増加に直接反映され、ネットワークの全体的な負荷が増加します。計算が複雑になればなるほど、より多くのエネルギーが必要になります。これは、プロセッサ自体が消費する電力だけでなく、冷却システムや電源ネットワークなど、プロセッサをサポートするために必要なインフラにも関係します。

データセンター
データセンター
データセンター

2025年4月に発表された最新の エネルギーとAIのレポートによると、リフト オフの軌跡では、データセンターとその必要なインフラからの世界の電力需要は2035年に1700 TWhを超えると見ています。2022年の~460 TWhは世界の電力需要の約2%に相当し、13年間で370%の増加となります。

簡単に言えば、電力の必要がないAIは存在しません。

つまり、AIの素晴らしさの背後には、計算量と電力を大量に消費するプロセスがあり、その二酸化炭素排出量は膨大です。AIの機能を拡大する際には、AIデータセンターの大量のエネルギー消費を認識する必要がありますが、その多くは再生可能エネルギーではありません。さらに、AIデータセンターでは、過熱を防ぐために大規模な冷却メカニズムが必要であり、多くの場合、大量の水の使用量が発生します。これらの大規模なデータセンターを冷却するための水消費量は、小都市に匹敵する可能性があり、地域の水資源にさらなる圧力をかけています。

データセンター
データセンター
データセンター

このような動きを考えると、エネルギー効率の向上に注力する必要があることがわかると思います。これは、たとえば、より効率的なAIアルゴリズムを開発したり、電力供給ネットワークの損失を大幅に削減する革新的でエネルギー効率の高い電力管理ソリューションを実装し、データセンターのインフラを最適化したりすることを意味します。これらの課題に対処することは、環境の持続可能性と、AIテクノロジーのスケールアップによる経済的な実行可能性を確保するために不可欠です。

データセンター
データセンター
データセンター

この新しい課題には、多くの解決策があります。重要な点:ソリューションは、データセンターに入るグリッドからコアであるAIプロセッサへの電力変換効率をカバーする必要があります。

当社の革新的なパワー半導体ポートフォリオには、データセンターに入力するグリッドからそのコアであるAIプロセッサまでのソリューションが含まれ、Si、SiC、GaNの利点を活用して最高の効率、密度、堅牢性を実現します。このようなアプリケーションの例としては、トップオブザラックスイッチ、電源ユニット、バッテリー バックアップ ユニット(BBU)、DC-DCネットワーキングおよびコンピューティング(48 V中間バスコンバーター、電源モジュール、ディスクリート ソリューションなど)、保護などがあります。さらに、当社の新しい電力システム信頼性モデリングソリューションにより、データセンターは電源の信頼性と稼働時間を最大化し、動的なシステム パラメータロギングに基づくリアルタイムの電源ヘルスモニタリングを可能にします。

データセンター
データセンター
データセンター

世界中で、これらの高度なパワー半導体により、約48 TWhのエネルギー節約を達成できます。これは、インフィニオンの分析によると、2,200万トン以上のCO₂ 排出量に相当します。

将来を見据えると、電力変換効率と性能を継続的に向上させながら、対処しなければならない多くの技術的課題が待ち受けています。私たちは、AIデータセンターにクリーンで信頼性の高いエネルギーをもたらすことを促進する必要があります。それは、私たちの環境責任と両立する方法でAIテクノロジーの持続可能な成長を可能にすることです。結局のところ、パワーのないAIは存在しません。この現実が、私たちをテクノロジーの進化に駆り立て、AIの進化に伴って、AIを効率的かつ効果的に推進するためのソリューションも進化するようにしています。