AI危険対策チーム長退社「限界」

OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

5月18日(土)8時0分 ITmedia NEWS

米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適…

記事全文を読む

「OpenAI」をもっと詳しく

「OpenAI」のニュース

x
BIGLOBE
トップへ