欧州委、AI倫理ガイドラインを発表
(EU)
ブリュッセル発
2019年04月15日
欧州委員会は4月8日、人工知能(AI)に関する倫理ガイドラインを発表した。欧州委は2018年4月に発表した政策指針で、個人のデータ保護や透明性などの基本原則を考慮した倫理ガイドライン策定の意向を表明(関連ブラック ジャック ゲーム)、産学官の学識経験者からなる「AIに関するハイレベル専門家グループ」などによる検討を進めていた。
普及に向けて日本との協力強化も
倫理ガイドラインは、信頼できるAIは合法的で倫理的、堅固であるべきとし、その条件として、次の7要件を挙げた。
- 人間の活動(human agency)と監視:AIは、人間の活動と基本的人権を支援することで公平な社会を可能とすべきで、人間の主体性を低下させたり、限定・誤導したりすべきではない
- 堅固性と安全性:信頼できるAIには、全ライフサイクルを通じて、エラーや矛盾に対処し得る安全かつ確実、堅固なアルゴリズムが必要
- プライバシーとデータのガバナンス:市民が自身に関するデータを完全に管理し、これらのデータが市民を害し、差別するために用いられることがないようにすべき
- 透明性:AIシステムのデータの処理のされ方などの追跡可能性の実現
- 多様性・非差別・公平性:AIは、人間の能力・技能・要求の全分野を考慮し、アクセスしやすいものとすべき
- 社会・環境福祉:AIは、社会をより良くし、持続可能性と環境に対する責任を向上するために利用すべき
- 説明責任:AIとAIにより得られる結果について、責任と説明責任を果たすための仕組みを導入すべき
倫理ガイドラインには、これらの要件を満たしているか確認するための「評価リスト」が含まれている。欧州委は2019年夏から、ガイドライン適用の試行期間を設定し、そのフィードバックに基づき、2020年初めに評価リストを見直す予定だ。さらに、日本やカナダ、シンガポールなど意思を共有するパートナー国との協力強化、G7やG20での議論を通じて、EUによるAI倫理へのアプローチを世界的に普及させたい意向だ。
(村岡有)
(EU)
ビジネス短信 17aa7120c9481135