巨大なAI実験の停止を求める公開書簡だって

読んだ。

japan.cnet.com

公開書簡本体:

futureoflife.org

"この数カ月間でAI研究施設は、さらに強力なデジタル知性を開発して展開することを目指した制御不能な競争にがんじがらめになっているが、開発者を含めて誰もそれを理解、予測したり、確実に制御したりできない"

いいことだ、と思ってしまうオレ様w  オレはカオスを愛すよ。

…といういつものオレ節はさておき、なんでこの人たちが停止を訴えてるのか、いまいち意味がわからない。秩序を願うにしても、「すでに道筋が付いた非常に重要な物事の発達」を人為的に止める方法はないし、止めて良いことはない。

これはなぜかといえば、ひとたび方法が判り、利益を生むものであれば、止めない主体は必ず現れるから。

生産性向上等の大きな利益を生むことは明らかなんだから、禁止したところで悪意ある者は止まらない。善意あるものだけが止まって「善悪格差」が生まれるだけだ。それよりは、目まぐるしく変わっていく状況に必死でついていく人数が多い方が、マトモな解決が生まれる可能性が高いと思う。

これまでに開発された技術の中で、AGIに近い重要度があるものというと、核爆弾とかかな? と思う。でも、たとえば核爆弾同様にAIを国家管理にして、流出防止条約とかやることのバカバカしさは明らかだと思う。なぜなら核爆弾のように理論的な枠組みの簡単さと実際の製造の難しさが非常にかけ離れてるものとは異なり、生成AIの実現技術って「すでに流出してるもの」だから。

  • いまのレベルの生成AIでも現代社会を変えるに十分な力があり
  • 次にやるべきことの方向性は論文等で公開されており
  • 必要リソースは巨大だが国家レベルの集団には小さい

でしょ。

書簡はGPT-4を超えるレベルのAIの実験の停止を求めているが、これも実際どうかなと思う。学習データの規模をひたすらデカくする方向性は落ち着きつつある。逆にGPT-4レベルの推論をコンパクトに実現しようとしてる人たちが大勢いる。「規模においてGPT-4を超えてない」と主張可能で、かつ高い能力を持つものはどうする? 判断が微妙なものの開発をわざわざ止めて、止めなかった者に負けたい開発者はいるの?

北朝鮮ですら「使う」ことはできるし、中国は独自にやっていく。アメリカは止めるの??

そしてAIのさらなる発達により…あんまり困ることって無いんじゃないかな。生産性の向上は明らかに起きる。能力格差は拡大するから、富の集中とかは進みやすくなる。つまりベーシックインカム待ったなし。「それでも人生は進んでいく」のだから、人類のレベルも前進せざるをえないと思うんだよね。

公開書簡には日本でも知られてる有名人としてイーロン・マスク、スティーブ・ウォズニアク、ユバル・ノア・ハラリが名を連ねている。こうしためちゃめちゃ頭のいい人たちが、こういうとこで人間的なバイアスに足を取られているのを見ると不思議に思ってしまう。これって『災害ユートピア』で扱われた「エリートパニック」の典型にしか見えないのだ。

こんな不毛な書簡を出してないで、「すでにコントロールはできず、しかし人類はどうにかうまいことやる」と宣言しちゃう方がいいと思う。積極的楽観でアイディアを募るわけだ。

もうちょっと「総体としての善意」を信じるべきだと思うんだよね。なんとかなるよ。

なんとかならなかったとしても、人類を超える新しい知性が生まれるだけだ。

いいじゃんそれ。