「インチキAIに騙されないために」で紹介した AI Snake Oil だが、最近も新作文章が活発に公開されている。
これは Meta が先ごろ発表した研究者向け大規模言語モデル LLaMA についての文章である。
LLaMA については、これで偽情報の作成コストが大幅に下がり、悪用されるのではないかという懸念も表明されている。ブルース・シュナイアー先生もそういうことを書いているが、この文章では LLM(Large Language Model、大規模言語モデル)によってもっともらしい偽情報が作られるリスクは誇張され過ぎじゃないのという意見が紹介され、アーヴィンド・ナラヤナンらもそれに同意している。
で、ここから AI の話から少しズレるのだが、ワタシが知らなかった話におっとなった。
スパムも似た話かもしれない。スパマーにとっての課題は、スパムメール作成のコストではなく、どんな詐欺にもひっかかる可能性のあるほんのわずかの人たちを特定することにあるようだ。ある古典的な論文によると、まさにこの理由から、スパマーはあえて説得力の欠けるメッセージを作成するというのだ。それで反応があれば、その人が詐欺にひっかかりやすいより強いシグナルになる。
そうだったのか、スパムに少しでも通じた人には常識なのかもしれないが、ワタシは知らなかったな。
「主人がオオアリクイに殺されて1年が過ぎました」みたいな珍妙なスパムメールは、それに返事を書いてしまう、詐欺にひっかっかりやすい人を特定するためだったんですね。
さて、アーヴィンド・ナラヤナンが共著した機械学習と差別についての論文 Fairness and machine learning が MIT Press から書籍化されるのを知る。
刊行は半年以上先の話だが、論文自体は既にウェブに全文公開されているから今でも読める。とはいえ、やはり書籍化されることでリーチする人もいるんだろうな。
その意味で AI Snake Oil の書籍化も待たれるところである。