AIが世界を破滅させるすべての方法(英国提供)

AIが世界を破滅させるすべての方法(英国提供)

AIが世界を支配する今週後半には、世界中から人々が英国主催のAI安全サミットに集まります。すでに発表されている概要資料は、AIの現状とそのリスクについて分かりやすくまとめられています。

この論文では、ChatGPTのような大規模言語モデル(LLM)の仕組みを、驚くほど分かりやすい言葉で解説しています。まず、文中の次の単語を推測するプログラムから始めます。最初は完全にランダムな推測ですが、数百万、数十億もの会話を分析するうちに、洗練された確率モデルを構築し、人間らしい発音を実現できるようになります。これがChatGPTの本質です。

ChatGPT を「スキャフォールド」(これらのモデルが Web ブラウザーなどのソフトウェアを駆動できるように他のテクノロジーに接続する)と組み合わせると、2023 年の AI 研究の最前線に立つことになります。

この論文では様々なリスクを概説していますが、「OMG スカイネットがやってくる」といったSF的な話には陥らないよう注意しています。あくまでも現時点でのAIのリスクについて論じています。

強調されているいくつかの点:

  • 市場集中は大きなリスクです。現状では、新しい言語モデルを開発するには計算能力と博士号取得者が必要であり、Googleにとってはガレージスタートアップよりもはるかに容易です。
  • フェイクニュースや誤情報などをこれまで悪者だと思っていたなら、これからはさらに強力になる準備をしておきましょう。テクノロジーは文字通り、非常にリアルに聞こえるニュースや情報を際限なく生み出すことができます。誤った情報の量だけでも、環境を悪化させる可能性があります。
  • 労働市場の混乱。言い換えれば、人々が職を失うということです。資料には分かりやすいグラフがありますが、例えば、法務業務の推定40%はAIで代替できると言われています。法務教育に数十万ドルを費やしてしまったら、他のことはほとんど不可能になります。しかし、まさに人々が直面する状況です。
  • モデルにおけるバイアスと差別。これについては、あまり説得力のある議論ではないと思いましたが、広く議論されてきました。
  • 衰弱。報告書ではこの用語は使われていませんが、人間がAIシステムに制御を委ね、それを取り戻すことができない、あるいは取り戻したくない状態について言及しています。これは「うわあ、AIをオフにできないのに核ミサイルを発射している」といった状況ではなく、履歴書を自動で審査する人事システムのような、より日常的な状況です。コストがかかりすぎるため、誰も手動で審査を再開したがりません。

このレポートは読みやすく興味深いので、お勧めします。

おすすめの記事