Alat Baru untuk Melindungi Karya Seniman dari Model AI Generatif: Nightshade
Alat baru bernama Nightshade dapat melindungi kreasi seniman dari duplikasi tidak sah oleh model AI generatif yang menghasilkan gambar dari karya seni yang ada. Data yang tercemar membuat model AI tidak mampu menghasilkan karya seni sebagai respons terhadap pertanyaan tertentu. Nightshade adalah mekanisme pertahanan diri yang hanya merusak model AI ketika mencoba menyerap data yang tercemar, alih-alih melancarkan serangan langsung terhadapnya.

Seperti dilansir Decrypt, aplikasi baru yang dikenal sebagai Nightshade berpotensi membantu seniman dalam melindungi kreasi mereka dari ekstraksi tidak sah oleh model AI generatif. Berdasarkan repositori luas karya seni yang sudah ada sebelumnya, model-model ini, yang telah menarik perhatian luas pada tahun ini, mampu menghasilkan representasi visual dengan kemampuan luar biasa. Dengan memasukkan data yang telah disusupi ke dalam generator gambar, Nightshade merusak data yang diperlukan untuk melatih model AI melalui serangan peracunan data yang dioptimalkan dan spesifik.
Keracunan telah lama dikenal sebagai vektor serangan potensial dalam model pembelajaran mesin, menurut Profesor Ben Zhao. Namun, Nightshade membedakan dirinya dengan meracuni model AI generatif, sebuah pencapaian yang sebelumnya dianggap tidak mungkin tercapai karena skala model tersebut yang sangat besar. Alat ini secara selektif berkonsentrasi pada kueri tertentu, seperti kueri yang meminta pembuatan gambar yang menggambarkan anjing, kuda, atau naga, dibandingkan menargetkan keseluruhan model. Metodologi ini membuat model tidak mampu menghasilkan keluaran artistik.
Teks dan gambar yang terkandung dalam data yang tercemar harus dirancang untuk menipu detektor penyelarasan otomatis dan pemeriksa manusia agar dapat menghindari deteksi. Meskipun Nightshade saat ini merupakan bukti konsep, Zhao yakin bahwa model AI bisa runtuh dan kehilangan semua nilainya jika cukup banyak seniman yang menerapkan kapsul racun ini.
Meskipun tidak ada tindakan yang diperlukan untuk melawan fungsi Nightshade pada generator gambar AI , fungsi ini menjadi aktif saat model AI berupaya memproses data yang menyertakan Nightshade. Zhao menyamakannya dengan pertahanan diri atau pagar kawat berduri yang dihiasi dengan petunjuk beracun yang ditujukan kepada pengembang AI yang mengabaikan arahan jangan mengikis dan permintaan untuk tidak ikut serta dibandingkan serangan yang sebenarnya.
Bonus rabat untuk membantu investor berkembang di dunia trading!