当ブログは YAMDAS Project の更新履歴ページです。2019年よりはてなブログに移転しました。

Twitter はてなアンテナに追加 Feedlyに登録 RSS

果たしてAIはどのように「規制」されるべきなのか?

www.nytimes.com

エズラ・クラインまでもが AI について書いている。彼によると AI を取材していると面白い体験をするという。ハイプまみれの若いテック業界なのに、多くの人が、歩みが遅くなってもいいから AI が規制されることを切望しているというのだ。昨今の AI をめぐる競争により、あまりに事態の進展が速くなっているのに恐れをなしたということだろうか。そして、一握りの企業だけに舵取りを任せてはおけないというか。

国もそのあたりを踏まえてか、米国政府は昨年秋に「AI 権利章典のための青写真(Blueprint for an AI Bill of Rights)」を発表しているし(参考:TECH+)、欧州や中国もそれぞれ規制のための政策を立案している。

で、エズラ・クラインは欧州、米国、そして中国政府のアプローチについて論評を加えているが、えらいと思ったのは、「AI 権利章典のための青写真」の主著者であるアロンドラ・ネルソンにしっかりインタビューしていること。ワタシもそのインタビューも読み切ってその内容も紹介したかったのだが、そこまで根気が続かなかった。

さて、エズラ・クラインは各国のアプローチを踏まえて、しかるべき規制を行うために優先的に考えるべきポイントを5つ挙げている。

  1. 解釈可能性(interpretability):次世代の原子力発電所を作るとして、炉心が爆発するか読み取る方法がないと言われたら、そんな原発作るなよとなるだろう。AI 企業は同じようなことを言ってないか? 理解できないアルゴリズムに未来を委ねるのか?
  2. セキュリティ:中国への先進的な半導体の輸出を阻止するのは可能かもしれないが、OpenAI の26歳のエンジニアがしかるべきセキュリティ対策を行っていると本気で思ってんの?
  3. 評価と監査:大規模言語モデルの安全性を評価するテストに業界全体で受け入れられているベストプラクティスはなく、現状、不透明で一貫性がない。連邦航空局が飛行機に、食品医薬品局が新薬に対して行っているように、安全でない AI を市場に出さないための監査のための投資や制度構築が必要
  4. 法的責任(liability):ソーシャルメディアにとっての通信品位法第230条みたいに AI 企業を免責するのは間違いで、自社で開発したモデルに何らかの責任を負わせないといけない
  5. 人間らしさ(もう少し良い言葉があるだろうが)

ワタシなど、先日「AIは監視資本主義とデジタル封建主義を完成させるか」でも書いたように、やはり我々には「アルゴリズムの監査機関」が必要なんじゃないかとあらためて思うわけだ。

エズラ・クラインが、「もうすぐ絶滅するという開かれたウェブについて」で紹介したドリース・バイテルトと同じく食品医薬品局(FDA)のアナロジーを挙げているのは、そのあたりが穏当な落としどころということなんだろうか。

ネタ元は Slashdot

[YAMDAS Projectトップページ]


クリエイティブ・コモンズ・ライセンス
YAMDAS現更新履歴のテキストは、クリエイティブ・コモンズ 表示 - 非営利 - 継承 4.0 国際 ライセンスの下に提供されています。

Copyright (c) 2003-2023 yomoyomo (E-mail: ymgrtq at yamdas dot org)