人工知能もバイアスを持つのか?

 テクノロジーの明るい面を語りつつも、SXSW2018で大きなテーマの一つとなっている「バイアス(偏見)」の話題については深掘りされた。

 SXSWでは3年ほど前から、差別や多様性についての議論が活発になっている。能力やスキルではなく、名前(男女の区別がつくため)や出身地、人種などでバイアスをかけて相手をどうしても判断してしまう。それをどうなくしていくかは根深い問題である。AIについても同じことが言えるのだろうか?

 司会のジェシカ氏が、AIをプログラムするときに、プログラマーやクリエーターが知らないうちにバイアスを吹き込んでしまうのではないか? と質問すると、「AIは人間から学習する。これまで人間が残している膨大なドキュメントから学ぶため、必然的にバイアスを取り込んでしまう」と答えた。

 例えば、私たちが外科医と聞くと男性医師を思い浮かべてしまうだろう。指摘されないとそのイメージがおかしいことだと意識できない。そういったことを一つひとつを正していくことが必要なのだ。複数ある価値観をいかにニュートラルな視点で、AIが返すことができるかが肝になってくる。

 また、「新しい技術には膨大なレギュレーション(規制)が必要です」という指摘もあった。約40年前にバイオテクノロジーに関しての倫理的なガイドラインが議論されたアシロマ会議を引き合いに出し、「共通のレギュレーションの設定とアップデートが不可欠です」と主張した。未来も含めたAI開発の全体の歴史のなかで、現在はシンギュラリティを迎えるまでの重要な時代であることを再認識させられた講演だった。