Політичний консультант з Нового Орлеана Стівен Крамер зізнався у створенні фейкового рободзвінка з використанням голосу президента Джо Байдена. Для цього він використовував технологію штучного інтелекту для імітації голосу Байдена і заплатив 150 доларів за створення цифрового запису. Рободзвінок закликав виборців не голосувати на праймеріз у Нью-Гемпширі, що стало частиною схеми для зниження явки виборців Байдена.
За даними NYT, схема була спрямована на підвищення шансів конгресмена Діна Філліпса на висування від Демократичної партії. Федеральна комісія зв’язку (FCC) запропонувала накласти на Крамера штраф у розмірі 6 мільйонів доларів за дезінформацію та незаконне використання технологій.
Цей випадок став першим у США, коли правопорушення, пов’язане з використанням дипфейків для робозвонків, отримало таке серйозне покарання. Розслідування проводилось місцевими та федеральними органами влади, що привернуло значну увагу до небезпек використання штучного інтелекту у політиці.
Розвиток штучного інтелекту відбувається з неймовірною швидкістю та безпосередньо впливає на інформаційну безпеку у різних її проявах. Дослідження функціонування штучного інтелекту в рамках спеціальності "Кібербезпека та захист інформації" є актуальним напрямом вивчення кібербезпеки, - зазначає доцент кафедри ДУІКТ, кандидат технічних наук, Андрій Котенко.