Случаи использования клонированных дипфейковых голосов для кражи крупных сумм денег уже фиксировались. Так, например, в 2019 году мошенники скопировали голос генерального директора энергетической компании, базирующейся в Великобритании. Был осуществлен перевод более 200 тысяч фунтов, по-видимому, по приказу генерального директора, чей голос был подлинным как по акценту, так и по тону. Этот инцидент стал первым известным киберпреступлением в Европе, в котором напрямую использовался ИИ.
Другой случай произошел в начале 2020 года, когда менеджеру банка в Гонконге позвонил человек, чей голос он узнал, – это был директор компании – клиента банка. Директор сообщил о хороших новостях: его компания собиралась совершить приобретение другой компании, поэтому он попросил, чтобы банк санкционировал переводы на сумму 35 миллионов долларов. Менеджер банка мог видеть в своем почтовом ящике электронные письма от директора, подтверждающие, какие деньги нужны для перемещения и на какой счет. Менеджер банка, полагая, что все выглядит законно, начал делать переводы. Чего он не знал, так это того, что его обманули в рамках тщательно продуманной аферы, в которой мошенники использовали технологию синтеза голоса для клонирования речи директора[7].
Помимо того, что телефонные аферы для кражи денег становятся все более изощренными с появлением этой технологии, существует также опасность использования дипфейковой технологии для влияния на социальные, правовые и политические дискурсы. Многие из нас, вероятно, сталкивались с чем-то подобным в социальных сетях, что потом оказывалось дипфейком.
В ответ на частые появления дипфейков в конце 2022 года правительство Китая запретило использование сгенерированных искусственным интеллектом цифровых продуктов «глубокого синтеза» (текста, изображений, голоса) без специальных водяных знаков. Все, кто захотят произвести с помощью ИИ текста, изображения или любой другой сгенерированный компьютером продукт, должны будут сначала получить разрешение от правительства. Те, кто используют ИИ, должны будут привязать свои персональные данные к используемому ими аккаунту, и весь контент, созданный ИИ, должен будет специально промаркирован[8].
ИИ для каждого
Почему то, что происходит сейчас в сфере Искусственного интеллекта, можно назвать настоящей демократизацией ИИ?
Потому что сегодня способность создавать различные продукты и инструменты, программы и платформы становится доступным для все более широкого количества людей, а не только узкому кругу лиц с техническим и инженерным образованием.
Во-первых, есть много книг и онлайн-курсов, где любой может научиться основам ИИ, машинного и глубокого обучения, научиться строить собственные модели МО и нейронных сетей.
Во-вторых, имеется много бесплатных программных библиотек машинного обучения и платформ с открытым кодом: от простых программных пакетов на основе алгоритмов ИИ/МО, до полнофункциональных фреймворков или платформ для машинного обучения. ПО с открытым кодом доступно каждому, и пользователи могут изменять исходный код и добавлять его в свои проекты. Наличие масштабных библиотек в таких платформах позволяет ускорять создание и развертывание моделей машинного обучения. Такие проекты с открытым кодом включают: TensorFlow, PyTorch, H2O.ai, Scikit-learn, Anaconda и другие.
В-третьих, скоро не придется даже уметь программировать, чтобы создать тот или иной продукт или программу. ChatGPT и подобные проекты плавно подвели нас к новой эпохе, когда для того, чтобы написать код для продукта или создать новое изображение, достаточно просто написать или сказать на родном языке, что вы хотите получить на выходе, и вот программный код или изображение уже перед вами. Недаром, Андрей Карпаты, бывший директор по ИИ в Тесле, недавно сказал, что «теперь самым популярным языком программирования становится английский».