新しいツール「Nightshade」が AI Text-to-Image テクノロジーに挑戦



OpenAI の ChatGPT などの生成 AI テクノロジーは、自然言語処理において大きな進歩を遂げました。しかし、これらの AI モデルは Web から取得した膨大なデータセットに依存しているため、許可や補償なしで作品が使用されているアーティストや写真家の間で懸念が生じています。

生成型人工知能に反対するアーティストと写真家

生成 AI ツールはテキストの指示から画像を作成できますが、トレーニングにはスクレイピングされたオンライン画像に依存します。このため、アーティストや写真家は、自分たちの創造的な作品が同意なしに使用されていることに不満を表明しています。彼らは知的財産権を保護する方法を模索しています。

Nightshade: AI モデルを混乱させるツール

研究者チームは、この問題に対処するために「Nightshade」と呼ばれるツールを開発しました。 Nightshade は、Web にアップロードされる前にアートワークに目に見えないピクセルを導入することで、AI トレーニング モデルを混乱させるように設計されています。このプロセスによりトレーニング データが「汚染」され、AI モデルがリクエストに応じて不正確な画像を生成します。

人工知能モデルへの影響

MIT Technology Review は、Nightshade を使用すると、DALL-E、Midjourney、Stable Diffusion などの画像生成 AI モデルの将来の反復に悪影響を及ぼす可能性があると報告しています。これらのモデルは、犬が猫になったり、車が牛になったりする結果を生み出す可能性があります。 Nightshade の背後にある研究は査読され、その重要性が強調されています。

力のバランスをとる: アーティストとテクノロジー企業

Nightshade は、自分の作品を守ろうとするアーティストに一縷の希望をもたらします。研究チームを率いたシカゴ大学のベン・ジャオ教授は、このツールが力の均衡をコンテンツ制作者の手に戻す可能性があると示唆している。これは、著作権と知的財産権を無視するテクノロジー企業に対する警告として機能します。

問題の範囲

大規模な AI モデルでは、数十億の画像で構成されるデータセットが使用されるため、汚染された画像の影響は大きくなります。汚染された画像がこれらのモデルに統合されると、より多くの混乱が引き起こされ、AI の状況が再構築される可能性があります。

オープンソースのコラボレーションと倫理的使用

Nightshade の背後にあるチームは、Nightshade をオープンソース ツールとしてリリースし、その有効性を改良して改善するために他のチームを招待する予定です。彼らは、Nightshadeは自分たちの権利を無視するウェブスクレイパーに対処するコンテンツクリエイターにとっての最後の手段として見るべきだと強調している。

アーティストの権利を保護する上での課題

DALL-E の作成者である OpenAI は最近、アーティストがトレーニング データから自分の作品を削除できるようにし始めました。しかし、このプロセスは面倒であり、アーティストは削除したい画像ごとに個別のリクエストを提出する必要があると批判されています。この削除プロセスを簡素化すると、アーティストが Nightshade のようなツールに頼るのを妨げる可能性があり、AI 開発者に長期的な影響を与える可能性があります。

知的財産権の保護を求めるアーティストとモデルをトレーニングする AI 開発者との間の争いが激化する中、Nightshade のようなツールはコンテンツクリエイターにとって重要な武器となる可能性があります。 AI の倫理的な使用と著作権問題の遵守は、進化する AI 環境においてますます重要になっています。