Pause Giant AI Experiments と題された「GPT-4より強力なAIの開発を直ちに停止せよ」公開書簡が話題になっている。
これに署名している人でも、スティーブ・ウォズニアックなどは本当に強力な AI に危機感を持っているのだろうなと素直に思うが、OpenAI の共同設立者でありながら、むちゃくちゃ言い始めた挙句に約束してた寄附金額の90%を反故にしたクソ野郎のイーロン・マスクなど、追い付ける見込みが無いと分かって正攻法で戦う気力を無くしただけ、つーか、本当に開発が停止されたら絶対こいつこっそり自分だけ抜け駆けするだろ、と懐疑的に見てしまう。
「インチキAIに騙されないために」で取り上げたアーヴィンド・ナラヤナンらもこの公開書簡に批判的で、もっといえば公開書簡が偽情報、仕事への影響、そして安全性を AI の主要リスクと見るのには同意するが、その真の危険性を見逃していると批判している。
まず偽情報については、LLM が偽情報の作成を自動化するツールを悪意ある行為者に与え、プロパガンダの氾濫につながるより恐れも、AI に対する過剰な信頼と自動化バイアス(自動化されたシステムに過度に依存する傾向)、要は AI にはハルシネーションの問題があるのに軽々しく信用してしまうことによる誤報のほうがよほど現実的な害だという。
次に仕事への影響、つまり LLM があらゆる仕事を時代遅れにする! という恐れよりも、ジェネレーティブ AI が労働者から力を奪い、少数の企業に集中させる搾取構造を心配すべき。
そして、AI に起因する長期的な破局的リスクよりも、現実に LLM ベースのパーソナルアシスタントがハッキングされて個人データが漏洩したり、企業の機密データを ChatGPT に勝手に入力するような従業員がもたらす現実的な AI の安全性を考慮しろよということで、こうしたリスクに対処するにはアカデミアとの連携が必要なのに、公開書簡にある誇大表現は事態を硬直させ、対処を難しくしているという。
また Future of Life Institute は、核兵器や人間のクローンになぞらえて AI ツールの開発中止を訴えているが、こうした封じ込めのアプローチは、核兵器やクローン技術よりも桁違いに安価で(さらにコストは急激に下がり続けている)、LLM を作成する技術的ノウハウも既に広まっている現実に合致していないと批判しているのも納得感がある。
これについては、新しい技術の応用や競争を阻害する代わりに透明性や監査に関する枠組みや規制の整備をやるべきという Andrew Ng 教授 や佐渡秀治さんの意見にワタシも賛成である。