X社が、違法コンテンツの投稿に対して、アカウントの永久凍結や行政及び法執行機関と協力しての対応や措置を行うとする声明を発表した。
声明の中では、xAI社のAI「Grok」使用して違法コンテンツを作成したり、Grokに違法コンテンツの作成を促すなどの行為を行った場合も同様の措置を取ると明言。
中でも、児童に関する性的虐待コンテンツ(CSAM)に対して、違法コンテンツの例として強調している。
「Grok」新機能で、写真を水着に改変される被害が多発
「Grok」をめぐっては、2025年12月にブラウザ版のXへ実装された、他者が投稿した画像を直接AI編集できる機能が物議を醸していた。
機能の実装後、コスプレイヤーやアイドルの投稿画像に対し、リプライ欄でGrokへ「水着にして」「ビキニにして」などの命令(プロンプト)を与え、性的な画像を生成させようとするケースが多発。
1月4日には、違法コンテンツの生成に対してイーロン・マスクさんがX上で警告。その一方でGrokを使ってトースターにビキニを着せた画像へ「笑いが止まらなかった」とコメントするなど、事態を矮小化するかのような姿勢も見せている。
違法コンテンツの拡散や内容の再現も違反とみなされる
今回の声明では、社として法的措置も視野に入れた対応を行っていくとの姿勢が明かされた。
声明に関するポストでは、詳細についてXのルールや強制的対応に関する規定をまとめたポリシーを参照するように促されている(外部リンク)。
強制的対応に関するポリシーでは、単に違法コンテンツを投稿するだけでなく、そのようなポストのスクリーンショットを投稿することや、引用ポスト、URLの共有によって内容を共有・再現する行為も違反とみなされるとしている。
X社の声明に対しては、法的措置には時間がかかることへの指摘や、Grokに違法なプロンプトを拒否させるべきであるとの声が寄せられている。
Googleも撲滅を掲げる「児童に関する性的虐待コンテンツ」
声明でも名指しされた「児童に関する性的虐待コンテンツ(CSAM)」は、X以外にもGoogleなどのグローバル企業各社が対応を行っている。
「児童性的虐待のオンラインコンテンツ撲滅に対する Google の取り組みに関するよくある質問」と題されたドキュメントでは、その定義を説明(外部リンク)。
「露骨な性的行為に関与する未成年者を扱った写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写」が該当するとされている。
また、実写以外の表現についても「児童性的虐待を漫画で描写したり、児童の性的搾取を冗談めかして表現したりする試みなどが見られます。このような画像も国際的な法律に違反する可能性があります」と言及されている。
Googleが開発する生成AIモデルに対しては「Google のモデルの基盤となるトレーニング データにおけるCSAMの存在、CSAMを探したり生成したりするメッセージ、違反出力に対する保護」を導入していると説明されている。
この記事どう思う?
関連リンク


0件のコメント