ひと月前に「ウィキペディアはAIによって書かれるようになるかジミー・ウェールズが考察」なんてエントリを書いたのだが、既に現実には AI に生成されたコンテンツと誤情報の増加にどう対応するかを巡り、ウィキペディア編集者の間で意見が割れているとな。
AI によって生成された一見正確そうに見える文章が、よく読むとと存在しない情報源や学術論文を平気で引用してたりするハルシネーションの問題があるのは既に知られているが、それをオンライン百科事典に載せてしまっては、完全な情報の捏造になってしまう。
ウィキペディアについての著者があるジョージア工科大学教授のエイミー・ブラックマン(Amy S. Bruckman)は、結局は大規模言語モデルを使おうが事実と虚構を見分ける能力を持ってないといかんだろ、ちゃんと人間が確認しないとウィキペディアの品質を低下させる可能性があるので、とっかかりとして利用するのはいいとして、ちゃんと全部検証されなければならない、と指摘する。
ウィキメディア財団もただ手をこまねいているだけではなく、ボット生成コンテンツを特定するツール作成を検討しており、大規模言語モデルを使ったコンテンツ生成に関するポリシーの策定にも取り組んでいるとのこと。
一方で、大規模言語モデルがウィキペディアのコンテンツを学習に使うのを許可すべきかについてもコミュニティで意見が分かれているようだ。オープンアクセスはウィキペディアの設計原則の基盤だが、OpenAI などの AI 企業が開かれたウェブを悪用し、自社のモデル用に閉じた商用データセットを作り上げるのを危惧する人もいる。
オープンアクセスと責任ある AI 利用のための行動制限を組み合わせたライセンスのもとで公開された大規模言語モデル BLOOM の利用も提案されているとのことだが、大規模言語モデル向けライセンスがオープンコンテンツ方面で求められているのかもしれませんね。
過去にも機械翻訳や荒らしの除去などの目的で、自動化システムはウィキペディアで既に利用されてきたが、AI 自体の利用を好ましくないと考えるウィキペディアンがいる一方で、ウィキメディア財団は AI をウィキペディアなどの傘下のプロジェクトにおけるボランティアの作業をスケールアップするのに役立たてるチャンスととらえているようだ。それでもウィキメディア財団の広報担当者は、人間の関与がもっとも重要な要素であることは変わらず、飽くまで AI は人間の作業を補強するもの、とも語っている。
最後にまたエイミー・ブラックマンによる、もはや「使うな」とは言えないのだから、使う以上はできるだけコンテンツ(が正しい引用がなされているか)をチェックするしかない、とやはり穏当なコメントで記事は締められている。
こないだ「Wikipedia公式の「不毛なWikipedia編集合戦」事例集」なんて記事を読んだが、これからは AI 同士の編集合戦ならぬ編集戦争に人間の編集者が付き合うことになり、人間による不毛な編集合戦が懐かしいよ、と思う時代がくるのかもね。