米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名

2024年4月24日(水)11時19分 ITmedia NEWS

 児童性的虐待資料の拡散阻止に尽力している米非営利団体Thornと責任あるテクノロジーに焦点を当てた非営利団体All Tech Is Humanは4月23日(現地時間)、主要なAI大手と協力し、生成AIの悪用による児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)の作成と拡散を防ぐ「Safety by Design」原則を発表した。
 Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAIStability AIがこの原則に賛同し、署名した。
 これらの企業は、トレーニングデータセットにCSAMが含まれないことを保証し、CSAMを含む高リスクなデータセットを回避し、CSAM画像やCSAMへのリンクをデータソースから削除することを約束する。
 また、AIモデルの「ストレステスト」を実施してCSAM画像が生成されないことを確認し、子供の安全性が評価された場合にのみモデルをリリースすることを約束する。
 Thornは、生成AIにより、1人の児童性的搾取者が大量のCSAMを簡単に作成できるようになると主張。オリジナルの画像や動画をAIで改変し、新たなCSAMを生成する可能性があると警告する。
 Googleは公式ブログで、この原則を順守することに加え、2006年から加盟している米児童保護団体National Center for Missing & Exploited Children(NCMEC)の取り組みのために広告助成金を増額したことも発表した。

ITmedia NEWS

「署名」をもっと詳しく

タグ

「署名」のニュース

「署名」のニュース

トピックス

x
BIGLOBE
トップへ