Согласна. Но и законы, думаю, появятся. Например, можно обязать все ИИ ставить метки, чтобы знать какие картинки были взяты за основу; и создавать программы "обратного" распознавания. Техническая возможность запомнить все исходники уже есть. Я продаю стоковые иллюстрации на Адобе и на Шаттерстоке; и обе компании уже объявили, что авторам работ, использованных в создании сгенерированных нейросетью картинок, будут выплачивать авторские проценты. Т.е. оба техногиганта точно все отслеживают и записывают. Как быть с другими программами, которые берут фото и видео не из своей собственной базы данных, а из всей сети, пока не понятно. Но именно что пока. Это вообще нормальное состояние прогресса - появляется что-то новое, преступники берут эту технологию на вооружение, но потом подтягиваются федералы и полиция и придумывают как с новым злом бороться. А потом появляется еще что-то, и история идет на следующий виток.
Кстати, интересный факт - среди художников уже известно, что нейросетка не умеет "рисовать" руки
Вот клинит ее на руках, особенно если пальцы переплетены или жест нестандартный. Так что пока, если есть подозрение, что фото сгенерировано ИИ то, буквально, следите за руками
(потом, конечно, научат ИИ и пальцы рисовать.) В данном случае старый добрый Фотошоп дает более правдивую картинку, т.к. фотошопит все-таки человек, который знает, сколько у человека пальцев и какой они длины