’23.7.6
新聞記事で「DX」の洪水が終わったと思ったら今度は「生成AI」の洪水だ。AIの功罪だったり規制だったり、人間社会に出現した怪物だ。この怪物、これから世界に社会にどんな影響を及ぼすのか知識人の言論がかまびすしい。
日経のDeep Insightのコラムに、イアン・ブレマー氏のコラムが載っていた。つまみ食いと論説記事をパクる。

技術の飛躍的進歩はこれまでも発明や適応、成長の新たな機会を生み出す一方、多くの人の人生や暮しに不可欠なダメージを及ぼしてきた。人類や社会は移行に伴う混乱への適応力と、経済学者が「創造的破壊」と呼ぶ混乱を切り抜ける力を試されてきた。
世界はまたしても技術の飛躍的進歩への備えを迫られている。人工知能(AI)は、私たちの暮らしを良くも悪くも一変させるだろう。その変化はあまりにも急激で広範なため、自衛するか、協力して備えるしかない。
医療や化学分野では、数十年分の作業を数日に短縮するような進歩が起きるのは確かだ。最強のAIツールは、より長く、健康な人生を送るのを可能にする。
かたや、備えるべきリスクもある。最も重要なリスクは「偽情報」「拡散」「大量解雇」「人間の代わりになる」ことだ。

簡単に解決できる技術的な障害と時間を別にすれば、私たちはこうしたリスクから隔てるものはない。家庭やコミュニティー、官民の意思決定者、さらには国境を越えた連携で、それぞれのリスクに対処しなければならない。
AI革命の火蓋は既に切られている。

解説
AIの脅威論は2010年代後半に科学者やIT企業家らが唱えた時期があったが、当時は同調するAIの専門家は少なかった。
打って変わって今は、世界の名だたるAI研究者が脅威論を真剣に議論している。AIを最もよく知る人々がそのリスクを肌感覚で認識しているのだろうか。
人間の能力を凌駕するAIは、プロ棋士を破った囲碁や将棋のソフトなど既に色々あるが、この半年で起きた一大変化はChatGTPのような「人間のように振る舞う」AIが登場したことだ。ブレマー氏が挙げる偽情報など目下のAIの4大リスクは、生成AIの「人間らしさ」に起因するところが多い。
生成AIのエンジンである大規模言語モデル(LLM)はよく「意味を理解せず統計的に言葉を発している」などと説明される一方、LLMでは未知の能力の「創発」が起きていると考える研究者もいる。
このメカニズムを解明することが、AIリスクへの対処法やデータ駆動社会の見通しを得るためのカギを握るだろ。(日経の編集委員 吉川和輝)

こんな記事だが、よく言われるそもそも大規模言語モデル(LLM)なるモデルは人間が考え出したのではないのか。それを解明するとはどういうことなのか。門外漢はただその怪物の成長を見守るしかないのか。