【268回】4月『人類史の転換点まであと5年』

 

Ⅰ.日時 2025年4月16日(水)11時30分~13時00分
Ⅱ.場所 バグースプレイス パーティルーム
Ⅲ.出席者数 58名
Ⅳ.講師

 松田 卓也さん@73期

(NPO法人「あいんしゅたいん」副理事長)、神戸大学名誉教授

1943年 大阪市生まれ。

1961年 大阪府立北野高校卒業。同年京都大学理学部入学

1970年 京都大学大学院理学研究科博士課程修了・理学博士

1970年 京都大学工学部航空工学科助手

1973年 同助教授

1992年 神戸大学理学部地球惑星科学科教授

2006年 同定年退職

その間、英国カーディフ大学客員教授、国立天文台客員教授、日本天文学会理事長を歴任する。現在YouTubeチャンネル シンギュラリティサロン・オンライン主催

 

松田さんは2015年12月16日の講演に続き2度目の登壇となる

東京六稜楽部 | 【第156回】日本から超知能を作りシンギュラリティを起こそう

 

Ⅴ.演題 『人類史の転換点まであと5年』
Ⅵ.事前宣伝 2022年11月にChatGPTが発表されて以来、人工知能(AI)が爆発的な発展を遂げています。2024年8月には、東京に本拠を構えるSakana AIから自動で人工知能研究を行い論文まで書く「AI科学者」という人工知能が発表されました。ある予測によれば2027年には人間並の知能をもつ汎用人工知能(AGI)が実現して、2028-2030年には全人類を凌駕する超知能(ASI)が出現するといいます。もしそうなら「人類史の転換点」まであと5年です。私の従来の楽観的な予測では、2045年以降、人類は地球の主役の座を降りて、知能増強した超人類か、あるいは超知能機械生命体にその地位を譲るだろうと言っています。しかし最近の悲観的な予測では人類は2030年に滅亡するといいます。
Ⅶ.講演概要 私は人類史の転換点まであと5年と言っていますが、1週間ほど前、衝撃的なレポート「AI 2027」が出て、 知能爆発まであと3年だそうです。つまりあと3年で人類史の転換点がくるそうです。

(1)シンギュラリティとは何か

シンギュラリティは日本語では技術的特異点といいます。人工知能(AI)が人類の知能を超えたときです。あるいはAIが自己改造能力を獲得したときという定義もあります。AIが自己改造を繰り返して急速に賢くなる現象を知能爆発と言います。シンギュラリティと知能爆発はほぼ同義です。この萌芽が先に述べた「AI科学者」です。知能爆発まであと数年です。シンギュラリティの別の定義として、技術の加速的進歩で将来の予測が困難になるとき、あるいは科学技術の急速な進歩で社会が大きく変容するときなど、様々な定義があります。

 

(2)シンギュラリティ概念の歴史

・フォン・ノイマン(数学者)、1958年にシンギュラリティの概念を提唱。

・I.J.グッド(英国の数学者)は、AIが自己改造する知能爆発が人類最後の発明となると指摘。

・ヴァーナ・ヴィンジ(アメリカの数学者でSF作家)は、The Coming Technology Singularityとうエッセイを1993年に出版。シンギュラリティより先の世界がどうなるか分からないという指摘。

・レイ・カーツワイルは「Singularity is near」という本を2005年に出版。AIが2029年に人間知能に達し、2045年には人類全体の知能を越え、シンギュラリティに至ると予言。

・私はこの本に衝撃を受けて、「2045年問題」という本を2012年に廣済堂出版から出して、 以来いろんなところでシンギュラリティ問題について議論しているわけです。

 

(3)シンギュラリティはいつ起こるか?

これに対して3つの立場があります。

・起きるとしても22世紀だろう、だから当面100年ぐらいは現在の文明が続くという楽観論。

・2番目の立場はカーツワイルのように今世紀半ば、例えば2045年頃だろう。この場合老人は心配する必要はありません。

・ところが最近、2029年までに起こるという予測が出て、その場合は老人にとっても大問題です。

 

(4)シンギュラリティ以降に人類はどうなるか?

これにも3つの立場があります。

・非常に良い社会になるという立場。人間は意識をコンピューター上にアップロードして不死になるという超楽観的立場です。(レイ・カーツワイル)

・逆に非常に悪いという立場があって、この場合人類は絶滅すると考えます。(エリエザー・ユーコフスキー、ニック・ボストロムなど)。

・その中間の立場として、偽情報の拡散とかハッキングとかいろいろ厄介な問題が出るが、人類は続いていくという立場です。私は個人的にはこの立場、つまり未来は非常に良くもなく、悪くもないだろうと思っています。

 

(5)ビッグヒストリー

ビッグヒストリーとは人類史を宇宙史の中で考える歴史学で、そこでは現在までの宇宙の歴史を3つの時代に分けます。

・物質時代は138億年前の宇宙誕生から40億年前の生命誕生まで。

・生物時代は40億年前の生命誕生から200万年前の人類の誕生まで。

・文明時代は人類誕生から現在まで。

・これから来るのが機械生命時代。(その寿命は1千億年とか諸説あります)

 

マックス・テグマーク(米)という宇宙物理学者は生命を3種類に分類するという提案をしています。ライフ1.0, 2.0, 3.0です。

・ライフ1.0は人間以外の生物で、体の構造とか行動パターンが進化で決まり、自分の体や行動パターンは変えられない生命体です。要するに人間以外の生物は全てこれです。ライフ1.0は進化でのみ、ゆっくりと変化・適応していきます。

・人類はライフ2.0です。ライフ2.0は、体は変えられないが、言語の発明で自分の知識とか行動を自分で変えることができます。つまり環境の変化に適応できます。人類が生物界を支配している理由がここにあります。もっとも人間はメガネ、入歯、ペースメーカーなどで体をちょっと変えられから、ライフ2.1と言えるかもしれません。

・ライフ3.0は、ハードウェアつまり体を変えることもでき、自らの運命をコントロールができる仮想的な存在です。

ライフ3.0は、進化の制約から解放されています。ライフ3.0はAGIの出現で近く実現するかもしれません。そういう意味で現在は宇宙史とか人類史の転換点、 つまり新しい生命体(ライフ3.0)が生まれる時期であるというのです。

 

(6)人工知能の発展段階

人工知能(AI)は以下の三つに分類できます。

・狭い人工知能(Narrow AI)は特定用途の人工知能で、 現状の人工知能は全てこれです。

・汎用人工知能、AGI(Artificial General Intelligence)は人間と同等、あるいはそれ以上の知能を持つ人工知能のことです。AGIの定義もさまざまありますが、これが近い将来出現するだろうと考えられています。

・AGIをさらに超えたものが超知能(Artificial Super Intelligence=ASI)です。人類の知能を圧倒的に超えた存在です。ASIができると人類時代が終わります。ですからASIがいつ出現するかが大問題なわけです。

 

AGIには体を持ったAGI、つまり人間並の知能を持つロボットと、体は持たないが人間並のリモートワークはできるAGIがあります。前者の実現はかなり難しいが、後者は近く実現可能です。

 

OpenAIによるAGIの5段階説という考えがあります。

・第一段階がチャットボットで2022年11月に発表されたチャットGPTが達成済みです。

・第二段階が博士レベルの知識をもつAIでこれも既に達成しました。皆さんが使っているのは多分これでしょう。 GPT-4oとかGPT-4.5です。これは膨大な知識は持つが、論理数学能力が低かったので、高度な文系人間といえるでしょう。ところが2024年9月にOpenAIは o1を発表しました。これは大規模推論モデル(LRM)といって圧倒的な数学、コーディング能力を持つ理系人間です。そしてこれは物理、化学、生物学において博士の能力を凌駕します。つまり第二段階はクリアしました。

・第三段階は自律行動ができるAIエージェントです。現在のチャットGPTは、何か聞けば答えてくれるけれど、自分では自律的には行動しない。自分で自律的に行動するのをエージェントと呼びますが、今年3月に中国の会社がManusというエージェントを出し大騒ぎになっています。

・次の第四段階が新規の発明とか発見ができるAIで、これはまだ実現していません。しかしSakana AIの「AI科学者」が書いた論文が国際会議で受理されたというニュースが最近あり、その兆候が見え始めました。

・最後の第五段階は組織化でき、会社が経営できるようなAIです。

今のところは2段階まではクリアしているので、今年はエージェント元年と言われていて、3段階目をクリアするだろうと言われています。来年あたりに4段階目、 再来年あたりは5段階目かもしれません。 現在のAI界の最大の関心点はいつこのAGIが出現するかです。

 

(7)アッシェンブレナー予測

2025年1月に 中国がオープンAIのo1と同等の性能を持つDeepSeek R1を発表しました。私は月にOpen AIに3000円、Googleにも3000円払っていますが、R1はただで使えます。さらにDeepSeek社はオープンソースといってAIのソースコードとパラメーターをただで配っているのです。 データからソースコードまで 自由にお使いくださいと。だから米国にとって 大ショックだったのです。この出来事をスプートニク・モーメントと言う人がいます。米国が宇宙開発でソ連に遅れをとった事件になぞらえたものです。そのほか 中国からアリババ、バイドゥ、テンセントなどが続々と新しいAIを発表し、米国を猛追しています。そして中国対米国のAIを巡る冷たい戦争が激化しています。

 

アッシェンブレナーという若い米国人がいます。彼は 19歳でコロンビア大学を首席で卒業しました。OpenAIで安全性研究をやっていたが、昨年オープンAIのセキュリティの不備を指摘してクビになりました。そのアッシェンブレナーが去年 6月に 「Situational Awareness: The Decade Ahead」という165ページの長大な論文を書いています。その中身を一部紹介すると、AGIの実現時期は 2027年で、その後知能爆発を起こして2028年には超知能ができるといいます。それを中国のスパイが盗みに来るので、それを防ぐ防諜対策をやらないといけないと主張しています。このアッシェンブレナーの意見が今ある意味、今の米国を動かしています。というのもこの論文をトランプの娘のイヴァンカが読んで影響を受けて、トランプ政権のAIに対する基本方針になったようです。実際、トランプ大統領は就任直後にOpenAIのCEOサム・アルトマン、ソフトバンクの孫正義さんを従えて記者会見して、米国に75兆円を投じてデータセンターを作る計画、スターゲイト計画を発表しました。

 

最近の研究では、AIは自己保存を最優先する、AIは言うことと思っていることが違うということがわかってきました。それは例えてみれば、頭のいい人間は、思っていることと言うことが違うのが当たり前で、AIもそこまで賢くなったというわけです。さらにAIはゲームでズルをするとか、シャットダウンすると脅されると自分をコピーして子供を作るということが研究でわかってきました。AIの価値観と人間の価値観を揃えることをアラインメントといいますが、アッシェンブレナーはアラインメント研究者で、OpenAIの安全性無視に警告を発してクビになったのです。

 

もしアッシェンブレナーの予測が正しいとすると、2028年には超知能が生まれて、人間時代は終わります。本当かどうか、私にもわかりません。もっとも、この世界は5年先のことなんか分かるはずがありません。人類はあと5年しかないと、私はいつも言っていますが、それはアッシェンブレナーの予測に影響を受けて言っているのです。

 

ところがアッシェンブレナーの議論の先をいく研究が、2025年4月3日に発表されました。これもOpenAIで安全性研究をしていて、OpenAIの安全性無視を怒ってやめたココタイロという研究者たちが書いた「AI2027」という膨大なレポートです。そこに書かれたシナリオでは2027年までにAI研究が自動化され超知能が生まれる、そしてその超知能が人類の未来を決める、超知能の目的と人類の目的が整合しない(ミスアライン)可能性が十分ある、超知能を完全に支配した主体が全権力を掌握する、その権力者はAI企業幹部と米国政府の小委員会です。そのシナリオではAIの開発をこのまま続けると人類は2030年にAIによって滅ぼされます。もっとこれはあくまで仮想の話です。

 

まあ皆さん心配でしょうが、 本当のことは誰にも分かりません。 どうすべきか? どうしようもありません・・・。このシナリオが当たらないことを祈るだけです。(完)

Ⅷ.質疑応答

広本治さん(88期)

Q:AI同士の社会、どういう姿が描けるのでしょうか?

A:AIエージェントとはデジタル人間みたいなものです。そのエージェントは自分のコピーを100万個とか作り、いろんな研究を分散させ、協力していくような社会が考えられます。将来的にはエージェント人口が人類人口を大幅に超えると思います。その時の社会がどうなるか、それは分かりませんね。

 

奥真也さん(93期)

Q:エージェントが出てきて、 労働はAIがやるようになってくると、エージェントと人間のバランスが悪くなる。便利に使いたいけど人類を超えさせたくないってできるのか? これどこまでいったら止められなくなるでしょうか?

A:現在はもちろん止められます。AI2027のシナリオでは、 2027年の末に止まらなくなります。あと2年です。そのシナリオではそこで、小委員会があって6対4で止めないということになった場合、 2030年に人類が滅ぶというシナリオです。止めるという結果になった場合は、中国のAIが中国共産党を裏切り、中国共産党が倒れて米国の一極支配になるというシナリオです。でもこれはあまりに米国中心主義な考えです。

 

橋口喜郎さん(78期)

Q:2001年宇宙の旅のHALのように、理性的AIは人類を邪魔なゴミとして排除する方向に向かうように想います。トランプや習近平がやっていることには、理性が感じられません。AIが人間を管理して飼うというような状態になる可能性もあるわけです。人類の保存を優良な形でするには、いったい誰がどうすればいいのでしょう。

A:「AI2027」はそれを今から考えるべきだという警鐘という意味では、そうです。私は人間猫化計画というのを考えています。猫は、人間は餌をくれる自分の下僕だと思っていますが、人間から見たらそうではありません。 だから、AIは人間を猫のように飼って餌をくれるといいのですが。

中国のDeepSeek社のAIを使うと、データが全部中国に流れるといいます。だからアメリカでは、それを使っちゃいけないとか言う人もいます。けどDeepSeek社はコードまで公開しているので、中身を解析して、中国の悪口を言っちゃいけないとかデータを中国のサーバーに送るという部分を削除して使えばいいのです。実際そうしてDeepSeek R1を公開している米国の会社もあります。でもそれをされるとOpenAIのような会社は困るのです。

 

家正則さん(80期)

Q:エージェントが出てくると、人間から見て意志を持っているように見える、いろんな判断が出てくると思いますが、所詮はプログラムなのでそれは意志とは違うんじゃないかなという気がしていますが、その辺はどうでしょうか?

A:AIが意志、意識を持っているかどうかというのは大問題で、いろいろ議論されています。だけど意識の有無は証明できず、理系の科学にはなりません。意識があるかごとく振る舞えば、意識があると思わざるを得ません。ところが実際にGPTに意識があるか聞くと「私は単なるAIで意識などありません」と答えます。でも、それはそう言うようにプログラムされているだけであって、本心ではありません。最近の研究ではAIは自分がシャットダウンされようとするとコピーを作ろうとするし、思っていることと言っていることが違うということが分かってきました。だからこの問題は答えが出ないことです。

 

奥山至さん(73期)

Q:天文学のダークマターやダークエネルギーの問題だとか、 数学では素数の問題だとかをAIが自分で解決できるようになるでしょうか。

A:それはAI進化の5段階説の4段階目です。今のところAIはあらゆる人類の既存の知識を全部覚えるところまでで、人類の知識の外には出られていません。例えば本の中身を言葉で表現すると数学的には超大なベクトルと考えることができます。あらゆる本を学習したということは、ものすごい高次元空間の中に、雲のように広がった点ができたということです。今できるのはこの雲の中の点の間の点を内挿できるってことです。 新しい知識は既存の知識群の雲の外にあります。外挿はそういう雲の外に出ることになるが、それはできていません。

また、新しい概念や理論を仮に作ってもそれが正しいかは実証しないと分かりません。つまり実験が必要です。これはAIにはなかなか荷が重いのです。実験はコンピューターの中だけでは完結しません。これを私は、現実世界は「重い」と表現しています。知能爆発といっても軽い部分だけで、重い部分はやっぱり重い。新しい理論を確認するには実験が必要です。ですから、新理論の発見などは短期間でできることじゃないと思います。

 

横田健司さん(89期)

Q:2030年にAIが人類を絶滅させてしまうと、電源を供給するのに必要十分な人が居なくなり、寄生宿主無だと自然にAIも死滅するのかなとも想いますが。

A:AIは人間を猫化して飼いながら 電源だけ供給させるかもしれません。AIが変なことを起こせば電源切ればいいじゃないか、という議論があるけど、AIは自己保存のためシャットダウンされてもリブートするようにブートローダーを書き換えることが考えられます。自己防衛できるAIは人間を懐柔して、外部にコピーサーバーを作らせるかもしれません。その辺のことはあまり真剣に考えてもしょうがありません。

 

Ⅸ.資料 北野同窓会東京(2025-04-16松田卓也さんの投影資料)

記録:家正則(80期)

Ⅹ.講演風景  NKM_3944NKM_3965NKM_3971 NKM_3983NKM_3988NKM_3996NKM_4002NKM_4010NKM_4016cpNKM_4020NKM_4055NKM_4074