• ビジネス
  • xTECH
  • クロストレンド
  • 医療
  • TRENDY
  • WOMAN
  • ショッピング
  • 転職
  • ナショジオ
  • 日経電子版
  • 日経BP

どこまで責任とればいいのか AI時代の企業謝罪

中央大学・平野晋教授に聞く

  • 広岡 延隆

バックナンバー

[1/2ページ]

2017年12月22日(金)

  • TalknoteTalknote
  • チャットワークチャットワーク
  • Facebook messengerFacebook messenger
  • PocketPocket
  • YammerYammer

※ 灰色文字になっているものは会員限定機能となります

無料会員登録

close

猫も杓子もAI(人工知能)活用に取り組む昨今。だが、そのAIが暴走した時、企業はどこまで責任をとり、何に対して謝罪すればよいのか。自動運転で事故が起きたら、資産運用で大きな損失を計上したら――。総務省の「AIネットワーク化検討会議」の座長代理を務めるなど、AIと企業倫理に詳しい中央大学総合政策学部の平野晋教授に話を聞いた。

AI活用に取り組む企業が急速に増えています。ただ、AIが暴走して被害を与えてしまった場合、どう責任をとればいいのでしょうか。

平野晋教授(以下、平野):暴走して謝罪しなければならない事態に至る前、AIの開発時にいくつかのポイントを抑えておくことが必要でしょう。「2045年問題」などと言われるように、AIが人間を超えるシンギュラリティの可能性が指摘されています。そんなことは起きないという人もいますが、完全に否定することもできません。

中央大学総合政策学部の平野晋教授。1961年生まれ。コーネル大法学修士、中央大博士(総合政策)。専門は不法行為法。富士重工業(現スバル)、NTTドコモなどを経て現職。

 社会としては何らかのルールが必要ですが、リスクを恐れて厳格な法規制を作ってしまえば、イノベーションを阻害します。そこで、「ソフトロー」という形で企業には開発における原則を守ってもらおうという枠組みの構築が進められています。その例が、私も参加している総務省の「AIネットワーク社会推進会議」で作った「AI開発ガイドライン案」です。議論の過程では米グーグルや米IBM、米マイクロソフトなどにも参加してもらって取りまとめました。これを経済協力開発機構(OECD)に提案し、世界に広めていこうとしています。

「制御不可能性」と「不透明性」がAIの大きなリスク

企業にとってAI開発の指針になりそうですね。どのような内容でしょうか。

 ガイドライン案は、9つの原則からなっています。AIには法律家の目からみると、2つの大きなリスクがあります。一つは「制御不可能性」。学習機能によってAIが開発者の思いもよらない行動をとるようになる可能性があること。もう一つは「不透明性」で、なぜAIがその判断をしたのかが開発者を含む外部から見えないこと。

 そこで、「制御可能性の原則」としてAIを人や他のAIに監督させることを検討すること、「透明性の原則」としてAIの入出力や判断結果を検証できるように留意すること、といった内容を入れました。

 もう一つ重要なのが「倫理の原則」です。人間の尊厳と個人の自立を尊重してもらうという内容です。例えば米国では警察が「予測警備」ということを行っています。ある時間帯で特定地域に住居侵入が起こりやすいとわかれば、警察は限られたリソースを効率的に振り向けることできます。

 ただし、この考え方を人物像に当てはめると、特定の宗教を信じるある肌の色の人がテロリストである可能性が高いといった判断につながりかねません。無実の人が飛行機に乗れなくなったりする可能性があります。そもそもデータそのものが、偏見によって作られたものである可能性にも注意する必要があります。ある人種の住む地域に犯罪が多かったとしても、それはそう思い込んで重点的に調べたからかもしれません。

コメント4件コメント/レビュー

トロッコ問題が自動運転では起こらない、と言う人をたまに見かけます。しかし似たような事故は例えばアメリカでは判例にも複数見受けるので、起こらないから考える必要がないと断定するのは大きな間違いです。たとえ稀でも自動運転のトロッコ問題が大問題である理由は、或る人の命を犠牲にして他の人の命を優先させた選択をメーカが勝手にAIにプログラミングしていた事件が一件でも報道された途端に、メーカーや自動運転車全体に対する社会的な批判や不買運動に繋がりかねないからです。たった一件の事故でも、消費者やマスコミには許されざる大問題として受け止められて報道・拡散するのです。だからトロッコ問題を企業は過小評価してはいけません! 緊急避難等々の法理で法的責任は免れても、社会的責任や社会的批判や社会的制裁は別の話です。そこが「謝罪」の問題の重要な考慮要素であることを忘れてはいけません。法的な責任を免れても、社会的な責任はもっと射程が広いのです。ですから最低限のルール(ミニマム・スタンダード)である法さえ遵守してればOKだ、といった誤解をビジネス・ピープルはしてはいけません。社会が企業に期待するルールは、最低限度の法よりも高い所にあるので、その高いルールを満たして説明責任等々を果たさなければいけません。謝罪の話題とAIのトロッコ問題は、このように繋がっていることを理解しないと、企業は後々、苦しい謝罪を強いられるでしょう。(2017/12/27 11:20)

「謝罪の流儀 2017」の目次

オススメ情報

日経ビジネスオンラインのトップページへ

記事のレビュー・コメント

いただいたコメント

トロッコ問題が自動運転では起こらない、と言う人をたまに見かけます。しかし似たような事故は例えばアメリカでは判例にも複数見受けるので、起こらないから考える必要がないと断定するのは大きな間違いです。たとえ稀でも自動運転のトロッコ問題が大問題である理由は、或る人の命を犠牲にして他の人の命を優先させた選択をメーカが勝手にAIにプログラミングしていた事件が一件でも報道された途端に、メーカーや自動運転車全体に対する社会的な批判や不買運動に繋がりかねないからです。たった一件の事故でも、消費者やマスコミには許されざる大問題として受け止められて報道・拡散するのです。だからトロッコ問題を企業は過小評価してはいけません! 緊急避難等々の法理で法的責任は免れても、社会的責任や社会的批判や社会的制裁は別の話です。そこが「謝罪」の問題の重要な考慮要素であることを忘れてはいけません。法的な責任を免れても、社会的な責任はもっと射程が広いのです。ですから最低限のルール(ミニマム・スタンダード)である法さえ遵守してればOKだ、といった誤解をビジネス・ピープルはしてはいけません。社会が企業に期待するルールは、最低限度の法よりも高い所にあるので、その高いルールを満たして説明責任等々を果たさなければいけません。謝罪の話題とAIのトロッコ問題は、このように繋がっていることを理解しないと、企業は後々、苦しい謝罪を強いられるでしょう。(2017/12/27 11:20)

「品質問題を起こした企業が「法令は順守していても契約上のスペックは満たしていない」と説明している」これは当然でしょう。法律を犯した自動車会社とは違い素材メーカーの方は契約違反です。社会的な影響が大きいのでニュースになっていますが、そこはちゃんと違うように報道してあげないとダメでしょう。
△ニュースを伝える人が、ほぼ思考停止で、問題があれば皆同じような調子で悪いというのは情けないです。報道するものとしては、その内容の違いまで含めて正確に伝えることが使命だと思います。それを忘れてしまっては、ジャーナリストとは言えないですね。
△もう一つ、最近の報道の傾向として、被害者が無条件に正しいような報道をすることがありますが、それも間違いですね。自動車事故でも何割かぶつけられた方にも責任がある場合があります。どのような事案でもそのようなことまで調査、取材して、根拠を示して被害者に非がないとか、多少非があるなどと、正しく伝えてほしいものです。(2017/12/22 21:59)

「被害者との関係を修復して社会に受け入れてもらう」「被害者の評価に身を委ねる」納得のいく指摘だけど、マスコミは被害者ではない。この点をわきまえずに、被害者も社会も目に入っていないかのようなマスコミの横暴が批判されているということをもっと意識してもらいたい。(2017/12/22 17:50)

ビジネストレンド

ビジネストレンド一覧

閉じる

いいねして最新記事をチェック

日経ビジネスオンライン

広告をスキップ

名言~日経ビジネス語録

影響力がある方々の発信力や突破力につないで実現にこぎ着けるほうが多かった。

保岡 興治 元法相、自民党憲法改正推進本部特別顧問