Infostand海外ITトピックス

「激動の5日間」 Altman CEO解任劇とOpenAIの奇妙な構造

きっかけはAIと安全性についての論文か

 背景にあるのは何だろう。収益面での課題は指摘されてきたが、急成長中のOpenAIの評価額は860億ドル。Microsoftからの支援も受けており、なんと言っても生成AIブームの中心に君臨しているのだ。

 Xで公に後悔をつづったSutskever氏が気になる。New York Timesによると、Sutskever氏は直前に、ある「予期せぬ行動をとった」といい、それがAltman氏の解任劇につながったと伝えている。

 直接の問題の種は、取締役会の1人だったHelen Toner氏(ジョージタウン大学 安全保障・先端技術研究センター理事)が共著した論文「Decoding Intentions」だったという。

 論文は、AIの安全性についてのOpenAIの取り組みに批判的で、競合Anthropicのアプローチをよしとする見解を含んでいたという。Altman氏は同僚に宛てた電子メールでToner氏を批判。これに対してToner氏は一般市民が直面する課題を分析した学術論文であると主張したものの、両者の議論は平行線だったという。ここでSutskever氏はToner氏の側についたのだ。

 Sutskever氏の行動につながりそうな伏線がある。この騒動前の10月、MIT Technology ReviewはSutskever氏の長文のインタビュー記事を掲載している。その中で同氏は「人間をはるかにしのぐ能力を持ったマシン」について語っている。

 トロント大学で“ディープラーニングのゴッドファーザー”Geoffrey Hinton氏に師事したSutskever氏は「人間より深く物事を見て、人間が見えないものを理解する」人工超知能("Artificial Superintelligence)に向けて準備していると話す。

 そこで問題となるのが「アラインメント(alignment)」、つまりAIに「人間の意図に沿った、倫理的に正しい行動をさせる」ための仕組みだ。

 しかし、現在のアラインメント技術は、人間より賢いモデルには使えないという。「AIシステムの動作を人間が確実に評価できることが前提になっている」ためだ。

 OpenAIは、人工超知能の登場に向けて、これを制御できる「Superalignment」の研究を始めたばかりだ。膨大なコンピューティングリソースの5分の1を割り当て、4年以内に解決するとしている。

 AIは、すでに時として、人間の理解を超える判断をするようになっているという。Sutskever氏が、Altman氏の進める急ピッチの展開に危惧を持っていたと考えるのは自然だろう。