半澤 智

AIがもたらす人権問題が、新たなリスクとして浮上している。指針の策定や利用者への説明の有無が、企業のESG評価を左右する。

 内閣府は2018年12月13日、「人間中心のAI社会原則検討会議」を開き、人工知能(AI)を活用する際の原則案を公表した。

 AIを「SDGs(持続可能な開発目標)で掲げられている17目標を解決し、持続可能な世界を構築するための鍵となる技術」と位置付け、AIの利用は基本的人権を侵すものであってはならないという「人間中心の原則」を柱に、7つの原則を示した(下の図)。

■ 政府が策定中の「AI原則」の概要
注:内閣府「人間中心のAI原則検討会議とりまとめ一次案」を基に作成
[クリックすると拡大した画像が開きます]

 AIの利用に関するルールづくりは各国で進んでいる。欧州連合(EU)でもAIの活用指針の作成を進めており、米国では企業が自主的にルールを策定する動きが出ている。経済協力開発機構(OECD)も、世界的な統一ルールの策定を目指している。AIに関する専門家会合を2018年9月に設置し、2019年中にまとめる計画である。

 内閣府の原則案は、パブリックコメントを経て2018年度中に正式決定する予定である。2019年6月に大阪で開催する20カ国地域(G20)首脳会議で発表し、国際的なルールづくりを主導したい考えだ。

グーグル社員が抗議辞職

 こうしたルールづくりが進んでいる背景には、AIが利用者の人権やプライバシーを侵害する可能性があるという懸念がある。

 米グーグルは2018年3月、AIの活用を巡って社内外で大きな批判を浴びた。事の発端となったのは、同社が米国防総省と結んだ軍事用ドローン向けにAI技術を提供する契約だ。米メディアが報じ、社外だけでなく社内3000人以上の反対署名が集まり、一部の社員が辞職するという事態に発展した。

 同社のスンダー・ピチャイCEO(最高経営責任者)はこれを受けて、2018年6月に声明を発表。AIの開発や活用に関する原則を打ち出し、武器や諜報活動などへのAIの利用を禁止した。同社はその後、問題となっていた国防総省との契約について更新を取りやめると発表した。

米グーグルのスンダー・ピチャイCEO。同社が米国防総省のAI開発プロジェクトに参加していたことを巡って社内外から批判を受け、AI活用に関する原則を発表した

 人材採用などでAIを使った場合、特定の性別や思想を持った人物が差別を受ける可能性もある。

 米アマゾンは、人材採用にAI活用を進めていたが、2017年に中止した。履歴書をAIで評価する自動システムの開発に着手したものの、AIが男性を好み、女性を就職に不利なように評価していることが判明したからだ。プログラムによって改良を試みたが、性別に対する偏りを解消できたのかという疑問を払拭できなかった。

 AI活用に欠かせない「情報」の扱いにもリスクが潜んでいる。個人情報の不正利用は、人権侵害として批判を浴びかねない。

 米フェイスブックは2018年4月、同社の8700万人に上る利用者の個人情報が流出し、その情報が2016年の米大統領選挙のトランプ陣営の選挙対策に使われたと報道された。同社のマーク・ザッカーバーグCEOは米議会上院の公聴会で追及を受けるなど釈明に追われた。

 これを受けて同社の株価は一時15%近く下落。流出した個人情報は、性別や年齢だけでなく、何に対して「いいね!」をしたかなど、個人の好みや行動に関する情報も含まれていたとされる。

 内閣府の検討会議で議長を務める東京大学大学院の須藤修教授は、「今後、国際的に合意されたAI原則を踏まえ、業界や企業でより具体的なガイドラインが整備されていくだろう」と予想する。