豪データサイエンティストが語る「AIのバイアスは悪くない。悪いのは・・・」

   

AI開発者とクライアントに忍び寄る、新たな倫理的課題について、気鋭のデータサイエンティストが語る。

マイケル・マッケナ。健康と小売を専門とするGovlawtech所属のデータサイエンティスト。
重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。



人間、それは機械学習のバイアスの究極的な源。

なぜかというと、すべての機械学習モデルは人間が作成するからだ。しかも人間は集団としてプロジェクトを進めているから、

  • 組織
  • チーム
  • データサイエンティスト
  • データ収集者

これだけの「バイアス」の要因がある。
おっと、忘れてはいけないのが「データ自体にも固有のバイアスがある」。

バイアスは、最も広い意味で言うと機械学習のバックボーンでもある。

乳がん予測モデルは乳がんの病歴がある女性を材料にして作られているから、場合によっては色々と偏ることになる。

でもここで重要なのは、「そのモデルは偏っているか?」という質問ではない。なぜなら偏っていることはあたりまえだから。

より良い質問をしようと思ったら、AIのヨーロッパ連合グループはモデル構築のためのガイドラインを見ると良いかもしれない。ガイドラインは以下のような内容になっている。

  • 合法的であること
    • すべての法律を尊重すること
    • すべての規制を尊重すること
  • 倫理的であること
    • 原則を尊重すること
    • 価値を尊重すること
  • 堅牢であること
    • 技術的な観点を持つこと
    • 社会環境を考慮すること

歴史的事例

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP