ガバナンスのパースペクティブ: AI 主導の組織の管理 - 人工知能、機械学習、および生成 AI の AWS クラウド 導入フレームワーク

ガバナンスのパースペクティブ: AI 主導の組織の管理

組織の AI イニシアチブの管理、最適化、スケーリングは、ガバナンスのパースペクティブの中核をなします。AI ガバナンスを組織の AI 戦略に組み込むことは、信頼を構築し、AI テクノロジーを大規模にデプロイし、課題を克服してビジネスの変革と成長を促進する上で役立ちます。一貫性を高めることで、AI ガバナンスは、組織の目標に沿って AI テクノロジーが倫理的に使用され、効果的に管理されるようにします。そのために、AI ガバナンスフレームワークは、組織的なリスク、倫理的なデプロイ、データ品質と使用状況、さらには規制コンプライアンスに対処し、AI ワークロードのさまざまなコストパターンを管理するための一貫したプラクティスを組織内に作成します。AI のデプロイのためのスケーラブルなプロセスと標準の作成により、組織はビジネスユニット全体に取り組みを拡張して、長期的なビジネス価値を生み出すことができます。

AI ガバナンスのプラクティスの構築は、組織の AI 戦略に密接に沿って行う必要があります。最初のステップは、すべての主要なステークホルダーを特定し、複数のビジネスユニットの代表者でチームをまとめることです。このチームは次の作業を担当します。

  • コンプライアンスや倫理目標などのガバナンス目標の定義、潜在的なリスク領域の特定。

  • データ、透明性、責任ある AI、コンプライアンスを含むポリシーとガイドラインの開発。

  • AI システム、パフォーマンス、コンプライアンス、バイアスのモニタリング、および定義済みのしきい値に基づいてアクションを決定するメカニズムの定義。

  • ビジネス目標の達成や AI の安全性の確保のための、結果と既存のポリシーの継続的な修正。

このパースペクティブでは、ガバナンスの課題に対するいくつかのソリューションに触れ、新しい能力、つまり AI の責任ある使用について説明します。これは、AI 分野における将来的な競争上の優位性を決定する要素です。

基礎的能力 説明
クラウド財務管理 (CFM) クラウドでの AI のコストを計画、測定、最適化します。
データキュレーション データカタログと製品から価値を創造します。
リスク管理 クラウドを活用して、AI に内在するリスクを軽減し、管理します。
AI の責任ある使用 責任ある使用を通じて、継続的な AI イノベーションを促進します。
プログラムとプロジェクトの管理 この能力は AI にとって充実したものではなく、AWS CAF を参照してください
データガバナンス この能力は AI にとって充実したものではなく、AWS CAF を参照してください
福利厚生管理 この能力は AI にとって充実したものではなく、AWS CAF を参照してください
アプリケーションポートフォリオ管理 この能力は AI にとって充実したものではなく、AWS CAF を参照してください

クラウド財務管理 (CFM)

クラウドでの AI のコストを計画、測定、最適化します。

クラウドでの AI プロジェクトの管理では、トレーニングと推論のコスト構造を計画する必要があります。これは、個々のプロジェクトの予算編成や AI イニシアチブの全体的な資金編成の際に事前に検討することが重要です。AI ライフサイクルにおけるこのようなコスト構造の例として、ジグザグコストや、低/高/低/高コストのフェーズがあります。

  • ソリューションの構築に必要なデータの品質を確立または向上させるため、初期コストが高くなることがあります。ただし、データの準備が整っている場合、この初期コストは非常に低く抑えられる可能性があります。その後、概念実証フェーズが続きますが、このフェーズは不安定なものになることがあります。

  • コンピューティングの側面では、ほとんどの AI 概念実証 (POC) イニシアチブは比較的低コストに抑えることもできますが、大規模なモデルのトレーニング (生成 AI のコンテキスト) やドメインに特化した ML モデルの継続的な再トレーニングなど、コスト増に直結しやすいいくつかの技術的な側面があります。このような場合、AWS Trainium を使用した Amazon Elastic Compute Cloud (Amazon EC2) Trn1、または AWS Inferentia2 を使用した Amazon EC2 Inf2 インスタンスなど、専用の AI ハードウェアを活用して、コストを低く抑えることができます。適切な人材、AI サービス、および AWS パートナーにアクセスできる場合は、知見を活用してユースケースのさまざまなフェーズと AI 戦略全体に必要なリソースを見積もってもらいます。可能であれば、ML メトリクスを少しずつ改善するために何が必要かを判断して、投資を最適化する方法を決定します。

  • 最初のシステムを構築した後は、システム機能を一般化したり、ユーザーへのシステムの導入に不可欠なエッジケースやロングテールデータを取得したりするために、次の実用最小限の製品 (MVP) フェーズのコストが比較的高くなる可能性があります。生成 AI 機能を必要とするユースケースでは、基盤モデルの使用や微調整を行うことで、大幅なコスト削減が可能な場合があります。これは、初期トレーニングのコストがサプライヤーやベンダーによって (Amazon BedrockTitan Foundation Model など) によって吸収されるためです。

  • AI モデルがデプロイされた後、推論自体はリクエストの量に大きく依存し、多くの場合、推論コスト自体も比較的低くなります。そうでない場合は、専用の AWS Inferentia アーキテクチャを活用します。このステージでは、モデルメトリクスをモニタリングし、ドリフトにフラグを付けることで、変更やアルゴリズムの再トレーニングが必要になる可能性に気づくことができます。クラウドでのスケーリングの低コスト性を活用できます。AI のライフサイクルを通じて、コストを追跡し、すべてのリソースと ML ワークロードにタグを付けることが重要です。

コストの可視化対策ができたら、データ、トレーニング、および時間の経過に伴う推論コストを分析することが重要です。テキスト、予測、文書処理など大量の問題の種類があり、初期段階ではそれほどコストがかからない場合でも、規模に比例して増加します。音声と音声データに依存する他の AI の問題は、初期費用がはるかに高く、POC 段階でも大幅な請求が発生しないように、明確な目標を設定する必要があります。AI ビジョンをビジネス目標に合わせることで、どのように作業範囲を絞るかが決まり、モデルコストとモデルパフォーマンスのトレードオフを計算するメカニズムを確立することは、ROI を維持する上で重要です。さらに、データ収集のコストは、組織がデータプロセスを中心に確立するメカニズムの影響を強く受けます。新しいデータやマスターデータを取得する標準的なプロセスは、(コピー/読み取り/コピーや ETL の必要性を減らして) AI に使用できる形式にデータを維持するのと同じくらい、コストを抑える上で重要です。クラウドは、管理されたデータサービスゼロ ETL パターンを通じて、これらすべての課題を支援します。

これ以外にも、基盤となるビジネス目標に AI イニシアチブを常に結び付けてください。新しい収益源に関連する場合は、どのくらいの収益がどの成功基準に関連しているのかを想定し、ビジネス価値を AI のメトリクスに変換します。AI の責任ある使用の必要性を認識しないことによる過小評価されがちなコストも考慮に入れてください。その重要性から、AI の責任ある使用をこのパースペクティブでの新しい能力として追加しました。

データキュレーション

データカタログと製品から価値を創造します。

データの取得、ラベル付け、クリーニング、処理、操作ができると、処理速度が向上し、価値実現までの時間が短縮され、モデルのパフォーマンス (精度など) が向上します。モデルの精度が落ちた場合は、アルゴリズムに入力しているデータに戻って、データの充実、増加、または改善を検討します。そうすることは、多くの場合、モデリングだけで再構築したり、パフォーマンスの次のパーセントを引き出したりするよりもはるかに簡単です。

ML を念頭に置いたデータ収集は、AI ロードマップの達成に不可欠であり、自分自身や他のリーダーたちに「データを民主化することで AI のイノベーションを実現できるのか」、「組織はデータを製品とみなしているのか」、「私のデータは組織全体で発見できるか」と問いかける必要があります。これらの質問への答えは「はい」と「いいえ」の間にあることが多いですが、覚えておくべき重要なことは、データを現代の発明の起源として認識することです。取り組みの早期からデータをコードとして扱い、ビジネスにおける最も重要な要素としてデータを考えることが重要です。

データ品質評価とガバナンスに関するルールは、データの利用を加速するか、すべての進展を止める可能性があります。この 2 つのバランスを取り、適切なツールを使用して、組織全体がイノベーションを起こせるようにします。データセットの直接的な所有者やデータスチュワードは、堅牢なデータエコシステムの構築に役立ちます。最初は小さく始め、継続的にデータメッシュに追加して、データフライホイールを回転し続けます。ユーザーの種類に応じて、さまざまな方法でデータにアクセスしたり検索したりできるようにします。このアプローチにより、環境内で行われている作業をより詳細に把握でき、シャドー DataOps を回避できます。

人間が読める使いやすいデータリポジトリと辞書は、組織のデータセットに関する一元的かつ組織的なデータとメタデータのリポジトリとなります。これにより、あらゆるスキルレベルのチームがデータを探し、活用し、コラボレーションを行い、データを活用したビジネス価値の創造を始めることができるようになります。そのため、他のケースで必要となる追加投資費用の決定が格段にスピードアップします。データの可能性を高めるには、次のようなさまざまな方法があります。外部データソースの購入、ML アルゴリズムによるデータの拡張または作成、社内データにラベルを付けるチームをクラウドソーシングする、ビジネスプラクティスを変更してデータの生成とキャプチャを自動化する、といったことも可能です。これらの各リソースをいつ使用するかを決めるためのプラクティスを戦略的に策定します。

リスク管理

クラウドを活用して、AI に内在するリスクを軽減し、管理します。

すべての新しいテクノロジーには新しいリスクが伴いますが、AI モデルの設計と開発のプロセス、AI のデプロイ、および AI の長期的な運用と適用の両方に関連するリスクの管理は、AI モデルが持つ不確定性により、困難なものになります。また、これらのリスクには財務上のものも含まれます。AI 開発イニシアチブの成果を前もって保証するのは難しいため (アウトプットに合わせてシステムを最適化するよりも、具体的にシステムを構築するという性質)、開発プロセスの埋没コストのリスクを考慮することから始めましょう。モデルカードや敵対的なインプットなどの確固たるプラクティスとメカニズム (POC、Minimum Loveable Products、実用最小限の製品 (MVP) など) を確立して、リスクを軽減し制御します。

さらに、法的および倫理的性質を持つリスクもあります。これには、例えば、欧州連合など、地域の議会によって分類されたリスクと、隠れたフィードバックループやキャリブレーションされていないアウトプットによる誤解、さまざまな人々に成果が予期せず与える可能性のあるマイナスの影響など、AI に固有のものが含まれます。また、業務上、組織上、さらに社会的な使用や影響 (エコーチェンバーや顧客行動への長期的な影響など) も考慮してください。詳細については、「AI の責任ある使用」を参照してください。

安全性が重要な環境だけでなく、必要に応じてシステムを制約する保護手段やアーキテクチャを開発して採用することが重要です。ダウンストリームの AI システムにサブシステムの障害が伝播したり悪化させたりしないことを確認します。説明可能性、透明性、解釈可能性など、どのテーマが重要かを考慮します。これらのリスクを管理するには、AI の影響を受ける単一の意思決定やアクションだけでなく、対象となるプロセスや大規模なシステム全体にわたって管理してください。世界中のデータや概念のばらつきがシステムにもたらす長期的な課題を把握し、悪意のある攻撃者への対策に投資してください (「セキュリティのパースペクティブ: AI/ML システムのコンプライアンスと保証」を参照)。最後に、特定のドメインで人間と同等のレベルに到達するまでの複雑さを取り繕わないでください。

AI の責任ある使用

責任ある AI 実践を通じて、継続的な AI イノベーションを促進します。

最近まで、この強力な新技術の責任ある使用は、組織が AI ソリューションの技術的な側面のみにフォーカスし、特定のビジネス目標を達成しようする中で、後回しにされることがよくありました。ただし、AI システムは膨大な量のデータから学習し、その内容は必ずしも意図したとおりであるとは限らないことがわかってきたため、AI の責任ある使用の重要度が高まっています。責任ある AI の実践は、継続的な AI イノベーションを促進するための鍵であり、AI ソリューションの開発、デプロイ、使用が、倫理的に、透明性を持って、偏見なく行われるようにすることが重要です。アプリケーションの用途や影響範囲が広ければ広いほど、その重要性が高まります。したがって、AI ジャーニーの早期とライフサイクル全体を通じて、AI の責任ある使用 (RAI) を考慮し、これに対処してください。

AI ソリューションの安全性を確保し、従業員、顧客、および社会全体に悪影響を及ぼさないように、AI リーダーシップチームの一部として機能したり、緊密に連携したりするために、複数のビジネスユニット (リサーチ、人事、多様性と包含、法務、政府および規制関連、調達、コミュニケーションなど) の代表者による AI ガバナンスボードを設置します。このボードは、AI テクノロジーの開発、デプロイ、使用に関する倫理と責任のガイダンスを統括し、業界の規制および AI に焦点を当てたコンプライアンスへの準拠を推進する責務を担います。時間の経過とともに、責任ある AI が設計、開発、運用に与える影響をスケールします。システムが個人、各ビジネスユニット、ユーザー、顧客、そして社会にどのように影響するかを考慮してください。クラウドでの AI の拡張速度を考えると、説明可能性、公平性、ガバナンス、プライバシー、セキュリティ、堅牢性、透明性など、責任ある AI の主要な側面がどのように組み込まれているか、またさまざまな文化や人口統計がテクノロジーによってどのように影響を受けるかを考慮する必要があります。AI の責任ある使用や、それがイニシアチブにどのように影響するかについて、よく考え抜かれた原則や信条を含め、AI ビジョンの重要な一部にしましょう。特に、アルゴリズムの公平性、多様で包括的な表現、偏見の検出などを含めてください。

可能な場合は、設計による説明可能性を AI のライフサイクルに組み込み、意図した偏見と意図しない偏見の両方を認識して発見するためのプラクティスを確立してください。適切なツールを使用して、現状の監視と、リスクの通知に役立てることを考慮してください。責任を持って AI を使用する文化を可能にするベストプラクティスを使用し、チームがこれらの要素を調査できるシステムを構築または使用します。このコストは、アルゴリズムが本番稼働状態になる前に累積されますが、被害を軽減することで中期的には報われるでしょう。特に、基盤モデルの構築、調整、使用を計画している場合は、ハルシネーション、著作権侵害、モデルデータの漏洩、モデルのジェイルブレークなど、新たな懸念事項について把握しておいてください。元のベンダーまたはサプライヤーが開発に RAI アプローチを採用しているかどうか、どのように採用しているかを尋ねます。これはビジネスケースに直接波及します。

注記

AWS AI の責任ある使用チームは、この件について、実用的で充実したホワイトペーパーを作成しました。