Edit

Payment Support

吾輩は猫である。名前はまだない。どこで生れたか頓と見当がつかぬ。何でも薄暗いじめじめした所でニャーニャー泣いていた事だけは記憶している。

【Web版】『Risk Management』25年1月号
2025-01-06

Risk Management

【Web特別版】

1月号

2025年1月-2月号Web特別版
INDEX

世界的な紛争のコストが増加する

ジェニファー・ポスト[*]


 べリスク・メイプルクロフトの政治リスク展望によると、世界の紛争地帯は2021年以降65%増加している。中東とウクライナは依然として最も激しい紛争地域であるが、紛争の影響を受けた地域に関しては、アフリカが他のどの地域よりも大きく拡大しており、紛争地帯の規模は2倍になっている。過去3年間で、世界中で合計27か国において武力紛争のリスクが大幅に増加している。ミャンマーの内戦やハイチとエクアドルでのギャング暴力の激化など、あまり知られていない紛争も全体的な地政学的問題に影響を与えている。今年は20万人以上が紛争で亡くなっている。

  膨大な人的被害に加えて、地政学的不安定性により、世界的にビジネスを行うコストも10年ぶりの高水準に上昇している。こうした紛争は、世界的な貿易制限や税負担の増加、外交緊張の高まりを特徴とする脱グローバリゼーションへの動きと相まって、多くの企業の運営費や人件費の上昇につながっている。影響を受けた地域の企業はサプライチェーンの多様化とリスク軽減を目指しているが、進行中の犯罪や人権問題によりプロセスが複雑化し、最終的には企業の利益率や競争力が損なわれる可能性がある。

トピック
国際、リスクマネジメント



注意事項:本翻訳は“Costs of Global Conflict Increasing ”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/01/02/costs-of-global-conflict-increasing ) January 2025をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
ジェニファー・ポストは本誌編集者。

AIベース・ツールのアルゴリズムが原因となる不当利得返還リスクを理解する

ニール・ホッジ[*]


 企業は、AI技術がもたらすと約束されているさまざまなビジネス上のメリットを活用するために、人工知能に多額の投資を行っているが、専門家は、消費者データの潜在的な悪用をめぐって、規制当局からそのような投資が深刻なリスクにさらされる可能性があると警告している。重大な罰則が課される可能性があるだけでなく、規制当局は、企業に対して手間をかけもAIモデルの訓練に使用された特定のデータセットをマイニングして削除するよう強制したり、主要サービスの基盤となるアルゴリズムを完全に廃止するよう要求したりすることもできる。このプロセスは「アルゴリズムが原因となる不当利得の返還」と呼ばれ、AI開発に直接関与していない企業も含め、幅広いビジネスに混乱をもたらす可能性がある。

 「適切な同意なしに収集されたデータで訓練されたAI搭載のチャットボットに顧客サービス インフラストラクチャ全体が依存している企業を想像してみてください」と、技術コンサルタント会社USTのチーフAIアーキテクト、アドナン・マスードは述べている。「規制当局が不当利得の返還を要求すれば、企業はコアとなるAIモデルを一夜にして失い、顧客サービス業務が機能不全に陥り、ゼロからやり直さなければならなくなる可能性があります。」

 これまでのところ、この規制ツールが使用されるのは稀で、通常は被害の度合いが高い場合にのみ使用されてきた。しかし、AIの採用が拡大するにつれて、特に自社が使用している最先端のテクノロジーがどのように機能するか、またはどのようなデータで訓練されているかを知っている組織があまりにも少ないため、この状況は変化する可能性があると、アナリティクス研究所教育担当取締役クレア・ウォルシュ博士は述べている。両方の質問に対する答えがなければ、「企業は欲張りすぎている可能性があります」と彼女は付け加えた。

規制の監視が強化される

 アルゴリズムによる不当利得の非常に現実的なビジネスへの影響は、すでにいくつかの事例で実証されている。2019年の注目すべき事例では、米国連邦取引委員会(FTC)が英国を拠点とする政治コンサルティング会社ケンブリッジ・アナリティカに対し、Facebookユーザーの何百万ものデータを本人の承諾なしに収集して開発したアルゴリズムとモデルをすべて削除するよう命じた。

 実際、FTCは近年この分野でかなり積極的に活動している。2021年、エバーアルバムが、ユーザーがアップロードした写真を使用して顔認識技術を構築していたことが判明した後、FTCは同社にモデルと基礎データを削除するよう命じた。同社が適切な同意なしに画像を集めていたためである。翌年、FTCはWWインターナショナル(旧ウエイト・ウォッチャーズ)に対し、適切な親の同意なしに情報を入手していたため、子供向けの減量アプリ・カーボを通じて収集されたデータで訓練されたすべてのアルゴリズムを削除するよう命じた。

 さらに事態を複雑にしているのは、不当利得返還命令の遵守期限が通常短く、時には90日以下であることである。これにより、業務の中断が現実となる見通しがでてくる。

 医療、金融サービス、法執行機関などの分野は、保有する機密データの量と、特に顔認識と差別的な偏見の点で引き起こされる可能性のある危害のレベルにより、明らかに最も危険にさらされている。しかし、AIモデルを構築するために消費者データに大きく依存している他の業界も精査されている。よくある誤解は、企業ユーザーはサードパーティのAIソリューションに対して責任を負わない、または偏見、エラー、幻覚のリスクを軽減するためにそれらのソリューションの導入を監視する責任を負わないというものである。しかし、AIを導入する者は誰でも、そのテクノロジーの使用方法、そのテクノロジーが活用するデータ、そしてそれが生成する出力に対して責任を負う。

リスクマネジメント行動

 多くの組織がAIベースのツールをサードパーティベンダーに大きく依存することになるため、企業はテクノロジーを開発する際にデータ倫理とプライバシーの懸念が適切に対処されていることを確認するために質問する必要があると専門家は警告している。

 最初のステップは、データの出所、データの収集方法、AIモデルの訓練方法を追跡する機能、つまりデータの出所を確認することである。「企業はベンダーからAIモデルやデータセットを購入することがよくありますが、データの出所が明確にわからないと、そのデータが不適切に取得されたことが判明した場合、大きなリスクにさらされることになります」とマスードは述べている。

 マスードは、AIガバナンス戦略の一環として、企業はAIツール、特に自社開発ではないツールのリスク評価を定期的に実施すべきだとアドバイスした。こうした評価では、AIの技術的健全性だけでなく、特に偏見、プライバシー、潜在的な規制に対するリスクに関して、倫理的コンプライアンスも評価する必要がある。

 さらに、企業はコンプライアンスの金銭的および技術的負担に備える必要がある。「モデルの再訓練にかかるコストは、サービスや製品の潜在的な遅延は言うまでもなく、莫大なものになる可能性があります」とマスードは述べた。「代替データソースやバックアップモデルなどの緊急時対応計画を用意しておくことが重要です。」

 ソフトウェアプロバイダーのワン・トラストでプライバシーおよびデータガバナンス担当上級副部長兼総支配人を務めるオジャス・レゲによると、AIの最大の課題の1つは、モデルが不適切または非準拠のデータで訓練された場合、モデル自体を最初に戻さない限り、このデータを「学習解除」できないという事実である。これは、組織がこれらのモデルの訓練に使用しているデータの完全な整合性を「事前に、そして設計上」確保する必要があることを意味する。そうしないと、プライバシー、セキュリティ、倫理上の問題に関する苦情に直面する可能性がある。これはまた、企業がAIの仕組みについて、事後に解明するよりも実装前に保証を求める方が簡単であるという事実を強調している。レゲは、アルゴリズムによる不正使用の排除が「今後数か月でより頻繁に発生するようになると予想しています。特に、同意なしに取得されたデータがモデルの訓練に使用される場合はそうです。」

 専門家は、執行が強化される可能性を考えると、企業はAIリスクマネジメントに積極的に取り組む必要があると警告している。生成AIは偏見、エラー、幻覚を起こしやすいことは広く認められているため、「損害は予見可能です」と、法律事務所カーステンス・アレン・グーリーの顧問ロバート・W. テイラーは述べている。つまり、企業は効果的なコンプライアンスおよびリスクマネジメントプログラムを導入していること、およびベストプラクティスに従っていることを示し、これらの予見可能な損害を軽減するために合理的にできることはすべて行っていることを示す必要がある。

 効果的なコンプライアンスプログラムを確立する際には、AIベースのツールの使用事例について、包括的かつ総合的な法的リスク評価を実施することも重要である。この評価の一環として、企業は、損害を防止するためのガバナンス/監視計画が、企業がAIを使用する方法と理由に適しているかどうかを自問する必要がある。

 「必要な監視は使用事例によって異なります」とテイラーは言う。「同じサードパーティ ソリューションでも、使用方法によってリスクプロファイルが大きく異なる可能性があるため、ソリューション自体ではなく、使用事例、つまりサードパーティ ソリューションの使用方法に焦点を当てる必要があります。」

脆弱性の重要な領域

 コンサルティング会社アルバレス&マーサルの紛争および調査業務担当最高責任者ジェレミー・ティルスナーによると、企業が警戒する必要がある重要な領域は3つある。1)AI専門家ではない者の使用、2)ベンダーがアルゴリズムを原因とした不当利得を返還せざるを得なくなるリスク、3)未熟な内部監査業務である。

 AI開発ツールがますますユーザーフレンドリーになるにつれ、組織全体でより多くの非専門家ユーザーが「法的および倫理的影響を十分に理解せずに」AIモデルを作成または変更するようになるだろう、と彼は述べた。「これにより、企業が不適切に源泉としたデータを知らないうちにシステムに組み込む可能性が高まり」、さらにアルゴリズムを原因とした不当利得返還のリスクにさらされることになる。

 一方、ベンダーが訓練データの誤用によりアルゴリズムによる不当利得を返還せざるを得なくなった場合、そのベンダーに依存している企業は「連鎖的な混乱」に直面する可能性がある。特にAIが顧客分析、リスク評価、自動化などの重要なプロスを支えている場合はそうなりうる。多くの企業がAIモデルの標準化された効果的な監査手法をまだ開発していないため、AIサービスの構築方法やデータのソース化方法に関する可視性が限られており、不当利得返還のリスクにさらされていると彼は述べた。

 ただし、アルゴリズムによる不当利得返還は簡単な解決策ではない。データセットからデータを削除するだけでは不十分な場合が多くある。削除後もモデルは訓練に使用したデータを「記憶」し続けるためである。この効果は「アルゴリズムの影」と呼ばれる。プライバシーの侵害に対処するため、規制当局は企業にモデル全体の削除を義務付ける場合がある。これにより、データの誤用から得られた利得がすべて消去され、不正使用による利得の回収が重大な運用リスクとなる。

 欧州の規制当局は、GDPRとAI法によってデータプライバシーとAIの使用に関する法律の制定を主導してきたが、一部の専門家は、米国当局は「執行による規制」に傾きやすいため、アルゴリズムによる不当利得の返還を要求する可能性が高いと考えている。ティルスナーによると、これには2つの理由があると考えられる。第1に、欧州や他の地域よりも米国を拠点とするAIモデルが多いため、米国の規制当局はより積極的な姿勢を取り、必要に応じてアルゴリズムによる不当利得の返還を強制しなければならなかった。第2に、GDPRはコンプライアンスと予防に重点を置いているため、「そもそも機密データがAIモデル構築希望者の手に渡る可能性が低くなります。」

 AIには簡単な「学習解除」オプションがないため、モデルを根本から再構築することなくデータを削除することはほぼ不可能である。その結果、規制当局がモデルの削除を要求すると、「何年もの作業が台無しになり、ビジネス戦略全体が混乱し、利害関係者の信頼が揺らぐ可能性があります」とレゲは述べている。「AIシステムを構築する場合でも購入する場合でも、メッセージは明確です。AIガバナンス、リスク評価、人間による監視に真剣に取り組む必要があります。」

トピック
人工知能、事業中断、コンプライアンス、新興リスク、知的財産、規制、テクノロジー


注意事項:本翻訳は“Understanding Algorithmic Disgorgement Risks of AI-Based Tools ”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/01/14/understanding-algorithmic-disgorgement-risks-of-ai-based-tools ) January 2025,をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
ニール・ホッジは英国を拠点とするフリーランス ジャーナリスト。

職場の幸福に対するリスクベースのアプローチを開発する

アレクス・ジマンスキー[*]


 従来のリスクマネジメントは、多くの場合、財務、業務、コンプライアンスの問題に焦点を当てていう。しかし、従業員の幸福(ウェルビーイング)に関連するリスクを見落とすと、最もよく練られたビジネス戦略さえも台無しにする可能性がある。

 米国ストレス研究所は、職場のストレスにより、欠勤、生産性の低下、事故により、米国企業は3,000億ドル以上の損失を被っていると推定している。さらに、全米安全評議会は、疲労に関連する職場の事故により、毎年何千人もの負傷者と何百万ドルもの損失が発生していると報告している。

 企業は、従業員の幸福と組織の成功とのつながりをますます認識している。しかし、多くの組織は依然として、ジムの会員権、健康プログラム、または毎年のメンタルヘルスセミナーの提供など、職場の幸福を一連の独立した取り組みとして捉えている。これらの取り組みには価値があるが、戦略的で統合されたアプローチが欠けていることがよくある。

 職場の幸福に対するリスクベースのアプローチには、従業員の健康を事業継続性、業務効率、長期的な成功と一致させる、より包括的で積極的なフレームワークが含まれる。このアプローチでは、従業員の幸福を組織のリスクマネジメントの重要な要素として強調し、企業が潜在的な混乱を緩和しながら強靭さのある労働力を構築できるように支援する。

リスクベースの従業員幸福に向けたステップ

 従業員の幸福は、生産性、安全性、および全体的な事業強靭性にとって重要である。リスクベースのアプローチに対して以下のステップを踏むことで、組織は幸福関連のリスクが拡大してコストのかかる問題になる前に、そのリスクを特定、評価、および緩和することができる。

特定のリスクを特定する

 リスクベースのアプローチの最初のステップは、従業員の幸福を脅かす特定のリスクを特定することである。これらのリスクは、安全でない労働条件、人間工学上の問題、または危険物質へのリスク遭遇可能性など、物理的なものでありうる可能性がある。また、ストレスの高い環境、ワークライフバランスの欠如、またはメンタルヘルスの問題に対するサポートの不足など、メンタルヘルスに関連するリスクもある。組織の観点から見ると、リーダーシップの欠如、職務の不明確さ、有害な職場文化も、従業員の全体的な幸福にリスクをもたらす。

 組織は、隠れたリスクを明らかにし、従業員に影響を与える特定の課題を理解するために、定期的に従業員調査、健康診断、フォーカス・グループ調査を実施する必要がある。

リスク評価を実施する

 次のステップは、各リスクの可能性と重大度を評価することで、特定されたリスクが組織に及ぼす潜在的な影響を評価することである。たとえば、従業員の慢性的なストレスは、離職率の増加、生産性の低下、医療費の増加につながる可能性がある。一方、職場での事故は、金銭面および評判面で大きな損害をもたらす可能性がある。リスク評価プロセスにより、組織は潜在的な影響に基づいて幸福リスクに優先順位を付け、それに応じてリソースを割り当てることができる。

ターゲットを絞った介入措置を実施する

 リスクベースのアプローチでは、画一的なソリューションではなく、ターゲットを絞ったデータ主導の介入措置を重視する。リスク評価に基づいて、組織は、人間工学に基づいたワークステーションを使用して物理的な安全性を高めたり、職場の安全プロトコルを改善したり、定期的な安全トレーニングを提供したりといった戦略を実施できる。

 さらに、従業員支援プログラム(EAP)の提供によるメンタルヘルスサポートの提供、従業員が受けるカウンセリング・サービスへのアクセスの提供、柔軟な勤務形態によるワーク ライフ バランスの促進により、特定プロセスで明らかになった多くの幸福の問題に対処できる。

 企業は、経営陣にバーンアウトの兆候を認識して対処するトレーニングを実施し、オープンなコミュニケーションを促進し、信頼と尊敬の文化を構築することで、組織文化を改善することもできる。

 どのような介入措置であれ、組織はそれぞれの措置を従業員の固有のニーズに合わせて調整し、より広範な組織目標と整合させる必要がある。

取組みを定期的に監視および調整する

 従業員の幸福を確保することは継続的なプロセスである。組織は、幸福取組みの有効性を追跡するために、主要業績評価指標(KPI)を確立する必要がある。KPIには、従業員のエンゲージメントスコア、欠勤率、または従業員の仕事に対する満足度の評価が含まれる。これらの指標を定期的に確認することで、組織は何が機能しているかを特定し、必要な調整を行い、幸福戦略を継続的に改善できる。

リスクベースの幸福アプローチの利点

 リスクベースのアプローチを職場の幸福に採用することで、組織はいくつかの具体的な利点を得ることができる。まず、健康で意欲的な従業員は生産性が高まるす。幸福のリスクに対処することで、組織はプレゼンティズム(出勤しているが生産性が低い従業員)と欠勤を減らし、生産性を高めることができる。

 さらに、従業員の幸福に関連するリスクを防ぐことで、医療費、労災保険、離職コストを大幅に削減できる。サポートされ、評価されていると感じている従業員は、組織に留まる可能性が高くなる。競争の激しい労働市場では、優秀な人材を維持することが長期的な成功にとって不可欠である。

 肉体的にも精神的にも強靭さのある労働力は、景気後退、世界的なパンデミック、組織変更などの課題に対処する能力に優れている。この強靭性は、ビジネスの継続性と安定性の向上につながる。

 最後に、従業員の幸福を優先する組織は、良い評判を築くことができ、新しい人材を惹きつけ、顧客、投資家、その他の利害関係者との関係を改善するのに役立つ。

 職場の幸福にリスクベースのアプローチを取り入れることは、負債を減らすことだけではない。より健康で、より強靭さがあり、より生産性の高い労働力を構築することも意味する。幸福のリスクを積極的に特定して対処することで、組織は長期的な成功につながる、より安全で、より支援的な職場環境を作り出すことができる。

 

トピック
健康と幸福、リスクマネジメント



注意事項:本翻訳は“Developing a Risk-Based Approach to Workplace Well-Being”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/01/21/developing-a-risk-based-approach-to-workplace-well-being) January 2025,をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
アレクス・ジマンスキーはスクリプト社の社長。

ロサンゼルス山火事の煙害による事業中断損失の補償

コート T. マローン、マーシャル・ギリンスキー、アビゲイル・ダムスキー[*]


 ロサンゼルス周辺で発生中の山火事は、南カリフォルニア全域に甚大な被害と壊滅的な被害をもたらしている。何千人もの人々が家を失ったり、避難を余儀なくされたりしており、企業は地域の閉鎖や火災による二次被害の影響で財産被害や収入損失に見舞われている。地元のレストランからNFLのロサンゼルス・ラムズチームまで、多くの施設が山火事の影響で避難を余儀なくされており、ビルボードは地域全体でキャンセルされた音楽イベントのリストを随時更新している。

 火災被害を受けていなくても、山火事の影響を受けた企業は、煙害による事業収入損失について保険契約に基づく補償を受ける権利がある。しかし、保険会社は、ウイルスは財産への物理的損害を構成しないというCOVID-19の判例を引用して、煙関連の損害は補償されないと主張する可能性がある。それでも、保険契約者は煙害について保険契約でカバーされており、これまでも常にカバーされてきたことを心に留めておく必要がある。

 先週、カリフォルニア州連邦裁判所は、山火事による煙害による閉店は保険契約に基づく物理的損害を引き起こしたと判決を下した。ボッテガLLC対ナショナル・シュアティー・コーポレーションの訴訟では、保険契約者のレストランと隣接するカフェが、2017年10月のノースベイ火災による収入損失の補償を求めた。この火災により、緊急事態が発令され、広範囲にわたり道路が閉鎖された。火災は保険契約者の事業所には到達しなかったが、「煙の煤、灰、焦げであふれていました」。裁判所は、煙害が「[資産の]機能を深刻に損なうか破壊する」場合、直接的な物理的損失に該当する可能性があるという判例を引用し、煙害は補償対象となる損失であると判断した。

 責任を回避するため、ボッテガの保険会社はCOVIDの事例を挙げたが、裁判所はこれを説得力がないと判断し、そのような事例は煙による閉店とは区別し、「ウイルスは掃除で除去できるほこりやごみのようなものだが、煙は物理的に財産を変えるアスベストやガスのようなものだ」との判決を下した。

 判決は、レストランが閉店したのは煙による物理的損害のためか、それとも財産へのアクセスを制限する政府の命令のためかという事実上の問題があったため、当事者の略式判決を求める反対申し立てを却下した。裁判所の分析と、煙、煤、灰がレストランに物理的に影響を与えたという判決は、何十年も前から知られ理解されてきた事実を裏付けている。煙による損害は保険でカバーされるということである。

 煙、有毒ガス、悪臭の存在は財産損害に該当し、補償されるべきであるという裁判歴は長い。1968年のウエスト・ファイア・インシュアランス・カンパニー対ファースト・プレスビタリアン・チャーチ事件では、保険契約者がガソリンの蒸気と土壌中への浸透によって教会が使用できなくなったことによる損害賠償を求めて保険会社を相手取って訴訟を起こした。コロラド州最高裁判所は、建物が居住不能になった場合、直接的な物理的損失があるとの判決を下した。それ以外の判決を下すと、「転倒した建物や、急な崖に張り出すような位置に設置された建物は、塗装が無傷で壁が互いにくっついている限り、「損傷」していない」という解釈を受け入れることになる。この判決は、有毒ガスであれ山火事の煙であれ、事業所が居住不能になった場合、補償対象となる損失があることを確認している。

 この論法は、引き続き認識され、繰り返し述べられている。たとえば、2016年にオレゴン州の劇場に山火事の煙が入り込み、劇場は本来の用途のためには使用できなくなった。保険会社は煙が劇場に実際に損害を与えたわけではないと主張したが、オレゴン・シェークスピア・フェスティバル協会対グレート・アメリカン保険会社の裁判では、この請求は「山火事の煙による空気の質の悪さによる健康上の懸念」のため、標準的な商業用不動産保険の対象であるとの判決が出た。全国の他の裁判所も、煙やガスによる非構造的な不動産の損害は保険でカバーされると認めている。

 COVID-19パンデミック後、多くの裁判所は、既存の保険約款ではウイルスは不動産の損害には当たらないとする保険業界の主張を受け入れた。ノースカロライナ州最高裁判所の最近の判決では、「レストランの立場に立った合理的な保険契約者であれば、この保険で使用されている財産への『直接的な物理的損失』には、レストランの物理的財産の使用とアクセスに影響を与えたCOVID-19時代の政府命令の結果とが含まれると予想できる。また、この保険にはウイルスに関する除外条項がないため、ここでの曖昧さは補償するほうに有利になると解釈する」とされている。

 ロサンゼルスの山火事で被った損失にCOVID関連の判例法を適用しようとする保険会社の努力にもかかわらず、煙による損害はCOVID以前から補償されており、現在も補償されている。保険契約者は、補償に有利なこの分野で確立された法律を認識し、今後数日から数週間で提出される請求を裏付ける関連文書を収集する準備をする必要がある。

 

トピック
事業中断、災害復旧、細則、保険、法的リスク、自然災害


注意事項:本翻訳は“ Coverage for Business Interruption Loss from L.A. Wildfire Smoke Damage”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/01/22/coverage-for-business-interruption-loss-from-l.a.-wildfire-smoke-damage ) January 2025をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
コート・T・マローンはアンダーソン・キルのニューヨーク事務所株主で、商業一般賠償責任、サイバー、雇用慣行責任、広告損害、取締役および役員、および財産保険の問題に重点を置いて、保険補償訴訟および紛争解決を専門としている。
マーシャル・ギリンスキーはアンダーソン・キルのボストン事務所の株主で、財産および事業中断、商業一般賠償責任、過失、取締役および役員、生命保険に関する請求で保険契約者の代理人を務めている。
アビゲイル・ダムスキーはアンダーソン・キルのニューヨーク事務所アソシエイトで、登録を申請中で、保険金請求紛争で保険契約者の代理人を務めています。

AI プロジェクトを成功裏に管理する方法

ニール・ホッジ[*]


 競争と生き残りを急いでいる企業は、より多くの製品やサービスを提供して存続するために、人工知能やその他の新興技術に希望を託している。しかし、AIはビジネスに多大なメリットをもたらし、潜在的に大きなチャンスを生み出せる一方で、この技術には根本的な問題が一つある。それは、AIの成功はプロジェクトの背後にいる人々が何をしているのかを理解しているかどうかにかかっているということである。

 多くの企業は、AIに多額の資金を投じてきた。そうする必要があると期待されているからである。しかし、金銭的な支出が成功を保証するわけではない。実際、投資を誤ると会社に大きな損害を与え、解決にさらに多くの費用がかかる可能性がある。

 2024年6月、ファーストフード チェーンのマクドナルドは、100を超えるレストランで使用していたAIベースの自動注文受付サービスを中止した。このシステムが、ベーコンをトッピングしたアイスクリーム、数百ドル相当のチキンナゲット、バターとケチャップの袋などの注文を誤って作成し、そのすべてがソーシャルメディアで公開されたためである。同社は早くからAIに信頼を寄せており、2019年にコスト削減の一環としてこの技術を採用したいと発表し、2年間IBMの音声認識ソフトウェアを試用してきた。マクドナルドはこうした技術が同社の将来の一部であり続けると主張しているが、これまでのところ5年間の計画と投資が期待どおりの結果をもたらしておらず、成功を確実にするためにはさらに多くの資金が必要となるようである。

 企業がAIを適切に実装していないか、結果の監視を怠っているという最近の注目すべき事例は他にもある。昨年5月、英国の小売業者ホーム・バーゲンズが使用した顔認識ソフトウェアが、顧客を既知の万引き犯と誤認し、スタッフが彼女のバッグを検査して敷地から連れ出し、チェーン店への出入り禁止にした。AIソフトウェアプロバイダーのフェイスウォッチは、後にその誤りを認めた。2024年2月、エア・カナダは、チャットボットが乗客に、(購入時ではなく)帰りの航空券を購入した後でも、親戚の葬儀に出席するための「弔問割引」を申請できると誤って伝えたため、乗客に損害賠償を支払うよう命じられた。航空会社は、バーチャル・アシスタントが提供した誤解を招く情報について責任を問われることはないと主張しようとしたが、審判所は、エア・カナダが「チャットボットが正確であることを保証するための、合理的な注意を払わなかった」として、乗客の主張に同意した。

 他のテクノロジーと同様に、AIは素晴らしいツールになり得る。しかし、多くの企業はAIを既存のテクノロジーと統合するのに苦労し、その有効性と影響を適切に監視できず、AIが何をすべきかを見失っている。

投資収益率を確保する

 専門家は、AIプロジェクトの投資収益率は現在非常に低く、約70%が概念実証段階を通過できていないと警告している。これは、多くのAI実装が実現不可能、ないしは非現実的で、最初から失敗する運命にあることを意味する。AIガバナンスソフトウェア企業モデルオップCEOピート・フォーリーによると、リーダーの50%以上がAI支出の投資収益率を測定または把握できていないという。さらに同氏は、「AIがどのように使用されているか、そして組織内でのリスクを特定できるCEOは2%未満だ」と述べた。

 専門家によると、問題の一部は組織が、テクノロジーが理論的には達成できることに驚いて仕様変更に屈して、適切な管理なしに予算を膨らませ、ほとんど「我を忘れてしまっている」ことにある。しかし、クラウド通信企業トウィリオの戦略・運用担当取締役シッダールト・ラムシンハニーは、企業は他のビジネスプロジェクトと同じようにAI実装を行うべきだと述べる。「テクノロジーが最先端だからといって、プロジェクト管理の基本を忘れてはいけません」と同氏は述べる。

 ラムシンハニーは、組織はまず、テクノロジーがビジネスニーズに合致していることを確認し、AIが何をするか、その成功と影響を主要業績評価指標(KPI)でどのように測定できるかについて明確な目標を設定する必要がある、と述べた。よくある間違いは、プロジェクトチームがAI実装(特に大規模なもの)の利点を現実的かつ客観的に評価するのではなく、誇張して語る傾向があることである。これは、経営陣がすでに予算にゴーサインを出しているために起こることもありうる。

 「企業の世界では、経営陣が主要プロジェクトに賛同するということは、Cレベルの幹部はプロジェクトが成功し、大きな投資収益率をもたらし、戦略に沿っていると考えていることを意味します」とラムシンハニーは述べた。「テクノロジーが成果を上げないと最初に取締役会に報告する人がいるでしょうか。人々は恐怖から、良いニュースだけを報告し、悪いニュースを隠す傾向があります。だからこそ、最初から明確な目標とKPIを設定することが非常に重要なのです。」

 AIプロジェクトには、データサイエンティスト、ドメインエキスパート、ビジネスリーダーを含む部門横断的なチームが関与することも重要である。この共同アプローチにより、プロジェクトは多様な視点と専門知識の恩恵を受けることができる。「AIの実装をIT部門に任せて、そこが独力で主導権を握って管理するのはよくある間違いです」とラムシンハニーは言う。「IT部門はテクノロジーを導入できますが、ビジネスケースやテクノロジーがビジネスを推進しているかどうかを考えるわけではありません。それは経営陣の仕事です。」

 プロジェクトを最初から順調に進めるには、潜在的なリスクを特定し、その影響を評価し、軽減戦略を策定するための堅牢なリスクマネジメント・フレームワークを導入することが不可欠である。プロジェクト全体を通じて定期的なリスク評価を実施し、新興リスクが速やかに対処されるようにする必要がある。一方、迅速で反復的な開発アプローチを採用することで、AIモデルの継続的なテストと改良が可能になる。「これにより、プロジェクトライフサイクルの早い段階で問題を特定して対処し、大規模な障害のリスクを軽減できます」とラムシンハニーは言う。また、企業は失敗したAIプロジェクトの徹底的な事後分析を実施し、根本的な原因を特定する必要がある。「原因が技術的な問題、データ品質の問題、ビジネス目標との不一致のいずれに起因しているかは問いません」と同氏は付け加えた。「これは、将来のプロジェクトで同様の落とし穴を回避するための戦略を策定するのに役立ちます。」

 AIプロジェクトの中心では、常にデータ品質に重点を置く必要がある。データはAIの原動力であり、それを効果的に処理することは譲れないことである。企業は、堅固なデータ・インフラストラクチャとガバナンス・プラクティスにリソースを投入する必要がある。「AIプロジェクトに着手する前に、企業はデータ品質を評価する必要があります」とラムシンハニーは述べた。「最初のステップは、クリーンなデータを確立し、データソースの透明性を確保することです。データ品質が低いと、AIモデルの有効性が大幅に低下し、不正確な結果や多額の規制罰金につながる可能性があります。」

適切なツールを選択する

 AI市場は常に成長しており、製品の価格、複雑さ、適応性、互換性はさまざまである。したがって、企業はAIに処理させたい主要なタスクについて話し合う必要がある。たとえば、企業が特定のタスクを実行するためだけにAI製品を必要としているのであれば、幅広い機能を備えたAI製品を購入しても意味がない。

 ビジネス コンサルタント会社ヘキサゴン・コンサルタンツ最高経営責任者スー・ウイリアムズは、最初から適切なツールを選択することが重要だと述べている。「AIが目的を達成するための適切な方法であると確信したら、利用可能なAIツールとテクノロジーを評価して、定義されたタスク向けに設計されたものを選択してください」と彼女は述べている。「拡張性、既存のシステムとの互換性、統合のしやすさを検討してください。」

 企業はイノベーションと実用性のバランスを取る必要もある。「ソリューションが実装可能であり、単なる理論的な概念ではないことを確認してください」と彼女は述べている。「ユーザーは、実用的でワークフローにすぐに役立つAIソリューションを採用する可能性が高くなります。」

 一般的な意見に反して、企業はAIを採用するのに多額の資金を必要とはしない。実際、企業は支出について慎重になるべきだと、AIを使用する人材紹介会社スペクトラム・サーチの最高技術責任者ピーター・ウッドは言う。同氏は企業に対し、「小規模から始め」、AIがプロセスをどのように変えるかを問うようアドバイスしている。たとえば、AIによってWebサイトへの訪問者が増えるのか、売上が伸びるのか、納期が短縮されるのかなどである。「最初から多額の投資をする必要はありません。既存のものにAIを追加するだけです」と同氏は言う。「早い段階で目に見えるメリットが得られると思われる分野を選び、そのプロセスから良い点も悪い点も学んでください」。

 多くの専門家は、最初から過剰な支出を避け、テクノロジーが実現できるものについて過度に楽観的にならないことが最善であることに同意している。「AIは単にビジネス上の問題に活用できるもう一つのツールであり、すべてのツールがすべてのプロジェクトに適しているわけではありません」と、テクノロジー コンサルタント会社アルターのデータ分析ソリューション担当取締役リソン・マーフィーは警告している。むしろ、組織のデータ処理ワークフローに強固な基盤を確立し、プロセス内にいくつかのモデルを統合するほうが、ばらばらで整理されていないデータの上にAIモデルを重ねるよりも優れた戦略である。「AIモデルは、与えられたデータと答える質問に基づいてのみ価値を提供し、効果を発揮します」と同氏は述べた。「データが不完全であったり、解決しようとしている課題があまりにも漠然としすぎたりすると、ユーザーも組織もフラストレーションを感じ、AIの実装、あるいはAI全体を失敗した取り組みと見なすことになります。」

失敗の一般的な原因を回避する

 マーフィーは、AIプロジェクトの半分が失敗していて、その原因は3つのAI「摩擦点」にあると考えている。「組織的摩擦」はAIプロジェクトで最も一般的な障害の一つであり、部門、チーム、個人が計画に適切に対応していない(または計画を支持していない)場合や、計画を実現するためのスキル、トレーニング、経験が不足している場合に発生する。一方、「技術的摩擦」は、ハードウェア、ソフトウェア、クラウドリソース、ベンダーなどのITインフラストラクチャの副産物である。これらの要素が合わさってボトルネックとなり、プロジェクトのスピード、規模、範囲が制限されることがよくある。テクノロジーの摩擦を軽減するためには、企業は組織のビジネスアプローチを支援し、ITインフラストラクチャとも互換性のあるAIソリューションを探す必要があるとマーフィーは言う。最後に、「財務上の摩擦」は、厳しい予算、限界に達したリソース、投資収益率を急ぐことから生じる。これは、組織が、データ分析、柔軟なライセンスを持つAIテクノロジー、よりスケーラブルで導入しやすいソリューションなど、より適切な代替手段を使用するのではなく、テクノロジーを支援できないレガシーシステムにAIの取り組みを追加しようとすることが多いためである。

 適切なテストの欠如と、テストフェーズで発見された問題の解決での失敗も、AIプロジェクトの失敗の主な原因である。自動ソフトウェアテスト会社エヌフォーカス・テスティン最高経営責任者ライアン・ジェームズによると、チームは、稼働前に正常に動作することを確認するために必要なテストを実施せずにAIツールを実装することがよくある。「初期導入時にサードパーティの開発会社やシステム・インテグレーターと社内チームの間にギャップが生じた場合、そのテクノロジーが意図したメリットをもたらすことはほぼ不可能になる可能性があります」と彼は言う。

 プロジェクト管理では、導入期間全体を通じて厳格なテストを検討する必要があるとジェームズは言う。「品質保証の原則と実践がプロジェクトの最後まで残されることが多すぎます」と彼は説明した。「これは損害を与える可能性があります。初期導入時にエラーや問題が発生した場合、それらの問題が他の場所で重大な衝突にエスカレートする可能性があるためです。十分に早い段階でテストしないと、プロジェクトが遅れ、計画より遅れる可能性があります。なぜなら、それらの問題は、プロジェクトが稼働する前に修正する必要があるからです。」

 企業はまた、修正が容易でコストもかからないときに問題を発見するために、定期的にテストする必要がある。「テスト、テスト、そしてまたテストしてください」とソフトウェア開発会社ブルームフィルターCEOエリック・サーバリングハウスは言う。「AIを段階的にリリースしてください。各バージョンを注意深くチェックし、広くリリースする前に調整してください。この反復的なアプローチは、バグの検出とパフォーマンスの微調整に役立ちます。すべてを書き留め、そこから教訓を得て、将来のAIプロジェクトをより良く、より効率的にするために活用してください。」

現実世界での成功を実現する

 結局のところ、成功するAIプロジェクトの核心は、それを使用する人々にとって機能するかどうかである。「技術ソリューションを開発する人々は、自分が作成しているものに非常に興奮しています」と、AI監視および遠隔警備会社クラウアストラクチャー創設者リック・ベントレーは述べている。「問題は、最終的にそれを使用するのは彼らではないため、その技術は、それがどのように組み立てられたかに興味のない人々にとって機能する必要があることです。つまり、常に使う人が想定するように機能する必要があるのです。」

 ユーザー・エクスペリエンスとユーザー・インターフェイス(UXとUI)が鍵である。「AIは社内のスタッフではなく、実際のユーザーでテストする必要があります」とベントレーは語る。玩具小売業者フィッシャー・プライスの最初のAI音声認識ベースの電子学習補助装置の開発に携わったとき、チームは若い母親とその子供たちを連れてプロトタイプを試用している。

 「期待していたほどうまくいきませんでした」とベントレーは語る。「最初の子供がおもちゃを使いに来ましたが、音声プロンプトに従わなかったのです。母親と玩具会社のスタッフがおもちゃを正しく使うように指導しようとしましたが、うまくいきませんでした。次の子供も同じでした。次の子供も。そしてその次の子供も。ここでの教訓は私に残りました。ユーザーは常に私たちの製品を「間違った」方法で使用します。私たちの仕事は、ユーザーが使いたい方法で製品が機能するようにすることであって、私たちがユーザーに使用してもらいたい方法ではありません。」

 エラーの処理も重要である。「AIは推測するのが大好きです」とベントレーは語る。「良いニュースは、AIが推測にどれだけ自信があるかを喜んで教えてくれることです」。よく引用される例の一つは、AIが犬の写真にタグを付けたものを見て、その動物が犬であることは90%確実だが、猫である可能性は10%確実であると述べることである。

 「100%正確なものなどありません」と同氏は言う。「99.9%の確率で正しいAIプログラムでも、0.1%の確率で間違います。AIが何百万、何十億もの使用頻度があるとすれば、それは何千、何百万もの間違った答えになりえます。事前に考えておく必要があります。AIが間違っている場合ではなく、AIが間違っている場合に起こり得る最悪の事態は何か、AIが及ぼす害はどの程度か、ということです。食物アレルギーがない限り、マクドナルドのベーコン トッピング アイスクリームは誰にも害を及ぼさないので、AIを完全に停止させるのではなく、問題を迅速に修正して同じ失態が繰り返されないようにとどめることで対応できます。一方、遠隔医療のAI医師が風邪に対して医師による自殺支援を勧めるのは、当然のことながら、すぐに撤回し、広く周知する必要がある恐ろしいシナリオです。」

 ベントレーは、現実には、企業は「AI製品が実際に準備できる前に、常にユーザーにリリースする必要がある」と述べている。秘訣は、ユーザーからのフィードバックを得てエラーを見つけ、エラー・イベントを記録してできるだけ早く修正し、「そこから学んだことをできるだけリアルタイムに近い形でシステムに組み込む」ことである。

 これは、人間が関与することを意味する。「人間がAIの作業を監督する必要があります」と同氏は述べる。「顧客からのフィードバックを取り入れるのがいいかもしれません。ユーザーのエッジケースを調べるのもいいかもしれないし、AIが答えにあまり自信がないのに答えを返しているときの結果を見ることもいいかもしれません。いずれにせよ、問題が見つかったら(必ず見つかるでしょう)、システムを迅速に改善する必要があります。」

 AIはビジネスの成功を実現したり、推進したりするのに役立つ。ただし、AIが適切に組み込まれていて、最大限に活用する方法を企業が知っているとれば、AIは役に立つのである。そうでなければ、AIの導入は経済的負担となり、大きなビジネスリスクになる可能性がある。企業は、テクノロジーがすぐに効果を発揮できる分野を真剣に検討し、成功を測定するためのベンチマークを確立する必要がある。そうしなければ、資金だけでなく評判も失う可能性がある。

 

トピック
人工知能、知的財産、評判リスク、テクノロジー



注意事項:本翻訳は“How to Manage AI Projects Successfully ”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/01/28/how-to-manage-ai-projects-successfully ) January 2025をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。

ニール ホッジは英国を拠点とするフリーランス ジャーナリスト。

記事の詳細を読む

会員の方

非会員の方

SHARE

RIMS日本支部

アプリケーションパスワードを使用すると、実際のパスワードを入力しなくても XML-RPC や REST API などの非対話型システムを介した認証が可能になります。アプリケーションパスワードは簡単に取り消すことができます。サイトへの従来のログインには使用できません。