"Учеными было изучено около двухсот статей СМИ
(с января 2023 года по март 2024 года) о случаях, когда искусственный интеллект использовали не по назначению.
Согласно результатам, чаще всего создавая ненастоящие изображения людей и ложные доказательства чего-либо – почти всегда злоумышленники хотят оказать влияние на общество и обеспечить себе легкий доход. Стоит отметить, что в подавляющем большинстве случаев (90%) такое мошенничество можно исполнить без знания принципов работы нейросетей – достаточно «спихнуть» всю работу на сам инструмент."
Решить проблему очень просто.
1. Каждое произведение AI должно содержать информацию о заказчике, Sha256 hash,
2. Дублироваться в сетевой базе.
Просто, правда?
И тогда пидераст и хакер ФССБ Игнатов останется бесполезен, даже с новыми аккаунтами в Instagram, мессенджерах, кми я не пользуюсь