Uma nova ferramenta para proteger o trabalho dos artistas de modelos generativos de IA: Nightshade
Uma nova ferramenta chamada Nightshade pode proteger as criações dos artistas contra duplicação não autorizada por modelos generativos de IA que geram imagens de obras de arte existentes. Os dados contaminados tornam o modelo de IA incapaz de gerar arte em resposta a consultas específicas. Nightshade é um mecanismo de autodefesa que só prejudica o modelo de IA quando este tenta ingerir os dados contaminados, em vez de lançar um ataque direto contra eles.

Conforme relatado pelo Decrypt, um novo aplicativo conhecido como Nightshade tem o potencial de ajudar os artistas a proteger suas criações contra extração não autorizada por modelos generativos de IA. Baseados em vastos repositórios de obras de arte pré-existentes, estes modelos, que despertaram grande interesse este ano, são capazes de gerar representações visuais com capacidades surpreendentes. Ao alimentar dados comprometidos em um gerador de imagens, o Nightshade corrompe os dados necessários para treinar modelos de IA por meio de ataques de envenenamento de dados otimizados e específicos.
O envenenamento é reconhecido há muito tempo como um potencial vetor de ataque em modelos de aprendizado de máquina, de acordo com o professor Ben Zhao. No entanto, Nightshade distingue-se por envenenar modelos generativos de IA, uma conquista que anteriormente era considerada inatingível devido à enorme escala de tais modelos. A ferramenta concentra-se seletivamente em consultas específicas, como aquelas que solicitam a criação de uma imagem representando um cachorro, cavalo ou dragão, em vez de direcionar o modelo inteiro. Esta metodologia torna o modelo incapaz de produzir produção artística.
O texto e a imagem contidos nos dados contaminados devem ser projetados para enganar tanto os detectores de alinhamento automatizados quanto os inspetores humanos, a fim de evitar a detecção. Embora Nightshade seja atualmente uma prova de conceito, Zhao está convencido de que o modelo de IA pode entrar em colapso e perder todo o valor se um número suficiente de artistas implementar essas cápsulas de veneno.
Embora nenhuma ação seja necessária para contrariar a função Nightshade do gerador de imagens de IA , ela se torna ativa quando o modelo de IA tenta processar os dados nos quais o Nightshade foi incorporado. Zhao comparou isso à autodefesa ou a uma cerca de arame farpado adornada com dicas tóxicas dirigidas a desenvolvedores de IA que desconsideram as diretivas de não raspar e os pedidos de exclusão, em vez de um ataque real.
Desconto de bônus para auxiliar os investidores a se desenvolverem no mundo das negociações!