AI開発の停止を提言
毎日のようにAI関連のニュースが流れる昨今、今度はAI開発の一時停止を求める話が出てきた。テスラのマスク氏とApple共同創業者のウォズニアック氏など名だたるIT関連の著名人が、AI開発の一時停止を提唱する書簡に署名した。
Chat GPTの人気の高まりによって各社が独自のAIを発表し、無軌道な危険なレースが行われようとしている。人智を超える可能性があるAIを受け入れる準備ができていないというのだ。
これ以上の強力なAI開発を半年間中断し、その間にAIのガバナンスを整えることを主張している。
AIは人類の脅威?
興味深いのは、AIの大家と呼ばれるような専門家までこの書簡に賛同していることだ。AIの脅威は大昔からずっと語られてきたことだが、現代の急激な進化はその脅威を現実になったということなのだろう。
だが、AIは人を助ける道具として開発され、現在もその領域からはみ出していない。AIがいくら賢くなっても、危険かどうかは使う人間による。
AIが危険になるのは、自ら想像し行動する時だが、現代のAIは至っていない。AIの専門家は、AIが自ら考え人類を凌駕する世界が見えているようだ。
進化は止まらない
マスク氏らが主張するようにAIの開発が停止することができるのだろうか。書簡に従い、各社が強調してAIの開発を停止するのか。おそらく、というか絶対にないだろう。
なぜなら技術の進歩を止めることは容易ではないからだ。一番わかりやすい例が原爆の開発だ。原子爆弾は大量破壊兵器として人類の脅威になるのが開発過程でわかっていたが、開発を止めることはできず、人類を何百回と絶滅させるほど全世界に「普及」してしまった。
人類が技術の進歩を止めた例としては遺伝子技術がある。日本など各国でクローン人間の産出は禁止されている。禁止になった理由は、生命倫理の観点からだ。遺伝子技術の進歩は、大規模な研究施設と資金が必要になる。隠れてこそこそ行うのはハードルが高い。
だが、現代のAIの開発には、そこまでの大規模施設とリソースを必要としない。クラウドのリソースを活用すれば、少人数でも開発ができる。Chat GPTを開発したOpen AIの参加人数は100名ほどといわれている。
また、クローン人間のように明確に何を禁止するのか決めるのが難しい。ネットワークで繋がったエンジニアがAIを開発するのを止めることはできない。
今回の書簡で、AI開発が停止することはなくても、今後AIをどうやって管理するかのガバナンスを考えるきっかけにはなるかもしれない。