凡人脱出ストーリー

ごえnoブログ

AI E資格 G検定

【G検定でも出題】これからAIを活用したい方必読!AI利用で気を付けるAI倫理について事例も交えて解説!

更新日:

こんにちは!

今回はAI(人工知能)がますます活用されていく中で、それに伴って様々な問題も起こるようになってきています。

この記事では目次のような流れでAI倫理について、昨今AIによって起きた問題、どんなことに気を付けなければならないのかについて書いていきます。

AI倫理とは

AI倫理とはAIが人間や社会に悪影響を与えない様にするための規範のことで、学習データの偏りによる人権侵害、企業や国家による監視など社会的問題に使われることを避けるために策定されます。

AI倫理の元祖ともいえるのが1942年にSF作家アイザック・アシモフが「ロボット工学三原則」を提示したもので、これはSF小説の中でロボットの安全規則として書かれたものだった。

しかし特定領域でAIは人間の能力を凌駕しているAIも出現している第3次AIブーム真っ只中の今、この3原則が現実味を帯びている。
そしてAIを利用するためにどのような規則が守られるべきかについて現在議論が進んでいる。

アイザック・アシモフによるロボット工学三原則

第一条ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

第二条ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。

第三条ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

— 2058年の「ロボット工学ハンドブック」第56版、『われはロボット』より

AIはなぜブラックボックスと言われるのか

AIは基本的に与えられたデータから未来の事例を予測したりデータの傾向を掴んで分類分析して結果を出力するものですが、それらは学習の過程で人間から与えられたデータに大きく依存します。

AIの精度を向上させるために学習で用いたデータだけでなく、どんなデータにも応用が効くようにデータの偏りを無くしたり、データの与えかたを工夫するなど汎化性能を高める工夫などが行われています。

しかし人間には処理できない膨大なデータによる膨大な計算で学習するので人間が気づかないデータの傾向が出てくることがあります。
また計算が膨大なためどのように学習してどのようにその判断、分類となったかは人間にはわからないことが多く、これがAIのブラックボックス化と呼ばれる所以です。

AIが引き起こした社会的事例

内容
2015年Googlephotosによるアフリカ系の2人に対しゴリラというラベル付け
16年3月マイクロソフトTayによる差別的な発言でサービス停止
18年3月ウーバー社の自動運転車による死亡事故
18年10月アマゾンのai採用システムで女性に不利な傾向
19年11月GSのクレジットの与信アルゴリズムが男性優遇
20年6月警察への顔認証システム提供停止→黒人差別
21年1月韓国のチャットボット「イルダ」差別発言等によるサービス停止

現段階では肌の色や人種、性別で認識誤差の違いがでて、サービスを停止したり改訂する事例が多くなっています。

例えば日本で顔認識を学習させようと日本語で顔の画像を検索すると日本人の画像が多く、日本人贔屓のAIが生まれるといった具合に、AIが学習で用いるデータは今のところまだ偏りがあることが多かったり、人間が意図せずそのようなデータを用いることがあります。

また設計者ですらAIの学習過程でどのようにバイアスがかかっているか、データが偏っているかわからないこともあるので問題があることを認識できないことが多いです。

さらにこれから自動運転など発達していく中でウーバー社の事例のように人の生死に関わる事についても責任所在など議論が進むでしょう。

代表的なAI倫理、利用指針

日本の人間中心のAI社会原則

  • 人間中心
  • 教育、リテラシー
  • プライバシー確保
  • セキュリティ確保
  • 公正競争確保
  • 公平性、説明責任及び透明性
  • イノベーション

EU(欧州議会)のAI倫理ガイドライン(jetroのサイト)

  1. 人間の活動(human agency)と監視
  2. 堅固性と安全性
  3. プライバシーとデータのガバナンス
  4. 透明性
  5. 多様性・非差別・公平性
  6. 社会・環境福祉
  7. 説明責任

グーグルのAI倫理の7原則

グーグルはAIと画像認識の技術を提供する契約を国防総省と結んだが、兵器開発に技術が使われる可能性があったため内外から批判をあびた。原則発表はこうした批判を受けてのもので、AI利用の原則として以下の7項目を掲げた。

  1. 社会貢献できる利用
  2. 不公平な偏見を生む利用をしない
  3. 安全な開発とテスト
  4. 説明責任を果たす
  5. プライバシーの保護
  6. 研究成果や知識の共有
  7. 有害となる可能性のある利用の制限

また、AIを利用しない4つの領域を明示した。

  1. 全体的な害を引き起こす可能性のある技術
  2. 人間に危害を与えることを目的とした武器その他の関連技術
  3. 国際的なプライバシー規範に反する監視のために情報を収集・利用する技術
  4. 国際法と人権に関する原則に反する目的を持つ技術

マイクロソフトのAI基本原則

  • 公平性
  • 信頼性と安全性
  • プライバシーとセキュリティ
  • 包括性
  • 透明性
  • アカウンタビリティ

を遵守して人を中心に責任あるAIの研究開発運用に取り組んでいる。

ソニーグループAI倫理ガイドライン

  • 豊かな生活とよりよい社会の実現
  • ステークホルダーとの対話
  • 安心して使える製品、サービスの提供
  • プライバシーの保護
  • 公平性の尊重
  • 透明性の追求
  • AIの発展と人材の育成

富士通グループAIコミットメント

  • AIによってお客様と社会に価値を提供します
  • 人を中心に考えたAIを目指します
  • AIで持続可能な社会を目指します
  • 人の意思決定を尊重し支援するAIを目指します
  • 企業の社会的責任として、AIの透明性と説明責任を重視します

まとめ

AIの利用で今重視されているのは、

  • 透明性
  • 公平性
  • プライバシーの保護

というところでしょうか。ブラックボックス化しやすいAIを信頼されるサービスとして用いるために公明正大な運用をしている、そして今後問題が起きるにつれて柔軟に改善していくよ。社会にも人間にも利益はあるよ。だからAIを使います。ってことですね。
その他にもユネスコが国際ルール作りを進めていたりします。

現在の顔認識、音声認識、自動翻訳などAIが生活内に応用できるようにディープ化したのは2012年ごろです。そこから第3次AIブームが始まりました。まだ実際には応用され始めて10年も経っていない技術です。そして英調査会社オムディアによると2025年世界AI市場は13兆円規模の予測もあり、これからますます社会に浸透して、応用範囲も増えて行きます。

AIは人間のデータから学習します。良くも悪くも人間の本質、思考、能力を際立たせてしまうのです。AIは人間ではないが、人間を超えうる。最近ではAlphaGo0のように人間の干渉をできるだけ減らし、AI自らが学習する様に設計されている者も出てきています。それは優れたAIを生み出しうるが、イレギュラーや使う側が気が付かない問題を起こす可能性があります。

ここ数年ビックデータの取り扱いに関する巨大テック企業への規制が始まったように社会的影響や、その問題が大きくなるにつれ行政や法律による規制や制約が強くなっていきます。規制が強いと産業が育たないためサービスの便利さと保護、これらのトレードオフに対する取り組みが大事になってきます。

最後に

AIに限らず今後はイノベーションにも社会的責任が付きまとうようになります。AI関する知識を身につけて適切に処理、判断することでビジネスリスクを未然に防ぐことができます。またそれらを使用するルール、規範を早く作った者がそのルール規範リーダーになるので、いま様々な団体がAIについてのルール、倫理について発表していとその背景を理解して、AIについてしっかり学ぶことが今後必ず役立ちます。しっかりと学んでいきましょう。

最後までお読みいただきありがとうございました。

AI,人工知能について幅広く学べるG検定についての記事はこちら

-AI, E資格, G検定

© 2020 ごえnoブログ All Rights Reserved.