Продолжаем серию материалов о преступлениях в цифровой среде. Ранее мы уже обсуждали, как искусственный интеллект вводит в заблуждение пользователей соцсетей и клиентов интернет-магазинов. В этот раз взглянем глубже на угрозы со стороны синтетического разума и от практики, которая сопровождала все прошлые 14 серий нашего цикла, разберёмся в теории. Разработчики, эксперты и политики бьют тревогу – новейшие нейросети позволяют даже второсортным злоумышленникам совершать губительные кибератаки, сеять информационную неразбериху. Евросоюз уже взял на себя миссию первым в мире начать регулировать эту одновременно многообещающую и опасную технологию.
На пороге революционных перемен
В последнее время всё чаще можно услышать размышления о том, что человечество – на пороге революции искусственного интеллекта (ИИ). И действительно, нейронные сети уже сейчас способны облегчить повседневность: писать компьютерные программы, качественно переводить текст, упорядочивать огромные объёмы информации. Перемены наступают и в культурной жизни – машина научилась писать стихи, создавать картины, сочинять музыку и даже ваять скульптуры. А прошлой весной в Литве робот под присмотром хирурга впервые успешно удалил опухоль. Вот только самих разработчиков ИИ тревожит другая, тёмная сторона грядущих перемен.
ТАКЖЕ ЧИТАЙТЕ:
- Цифровое чистилище (I): Вашего ребёнка хотят похитить
- Цифровое чистилище (II): «Алло, здравствуйте, я собираюсь украсть все ваши деньги»
- Цифровое чистилище (III): «Вы продаёте или покупаете что-то в интернете? Тогда мы вас обчистим!»
«Меня особенно беспокоит то, что эти модели могут использоваться для масштабной дезинформации. К тому же, теперь они все лучше пишут компьютерный код и могут применяться в агрессивных кибератаках», – так Сэм Альтман, создатель виртуального помощника ChatGPT, отзывается о технологии, на которой построено его нашумевшее творение.
Не так давно сотни тяжеловесов технологического сообщества, включая Илона Маска, подписали открытое письмо, полное тревоги. В нём – призыв заморозить разработку сверхмощных систем ИИ, так как они представляют «серьёзный риск для общества и человечества».
Благими намерениями путь в антиутопию мощён
О том, что с внедрением ИИ во все сферы жизни приходят не только футуристические блага, но и уйма угроз, предупреждает и Всемирный экономический форум (ВЭФ). В январе эта влиятельная организация опубликовала отчёт, где главным непосредственным риском для мировой экономики названа дезинформация, усиленная передовыми нейросетями.
ТАКЖЕ ЧИТАЙТЕ:
- Цифровое чистилище (IV): «Хотите разбогатеть? Идите к нам, мы вас сделаем нищими!»
- Цифровое чистилище (V): Под прицелом наши дети
- Цифровое чистилище (VI): «Ищешь любовь всей жизни? Подари мне своё сердце и все свои сбережения!»
«С помощью ИИ можно создавать дипфейки и воздействовать на большие группы людей, а это способствует быстрому распространению дезинформации», – подчёркивает шведский эксперт по управлению рисками Каролина Клинт, чья компания помогла составить отчёт для ВЭФ.
По её словам, «не нужно быть гением, чтобы стать злоумышленником» и с помощью нейросетей создавать опасные вирусы, проводить автоматизированные кибератаки. К тому же, возникает риск раскола общества, поскольку людям всё сложнее найти правдивые данные. Демократические процессы и вовсе могут быть подорваны, поскольку киберпреступники через фальшивую информацию способны поставить под сомнение легитимность избранных властей.
Словно в подтверждение подобных опасений «крёстный отец» нейросетей Джеффри Хинтон в прошлом году уволился из Google, публично сожалея о своей работе, которая привела к созданию программ, подобным ChatGPT. Они, по мнению учёного, представляют собой экзистенциальную угрозу для человечества.
ТАКЖЕ ЧИТАЙТЕ:
- Цифровое чистилище (VII): «Привет, меня зовут лже-Илон Маск, и я заставлю тебя инвестировать в мою несуществующую компанию!»
- Цифровое чистилище (VIII): «На ваше имя пришла посылка. Чтобы её забрать, отдайте нам все свои личные данные!»
- Цифровое чистилище (IX): «Ищешь правдивую информацию в соцсетях? Мой бот позаботится, чтобы ты нашел лишь пропаганду!»
Подмена реальности
А на кону стоит действительно многое. Ведь генеративный ИИ умеет имитировать абсолютно всё, что встречается в интернете – от текста и изображений до аудиозаписей и видеороликов. Это означает, что злоумышленникам подготовлена очень благодатная почва для неэтичных или даже преступных действий в информационных просторах. И если ещё несколько лет назад попытки ИИ воспроизвести реальность зачастую казались примитивными – то сегодня результат работы искусственного разума порой невероятно сложно отличить от подлинного контента.
Во-первых, ИИ способен с лёгкостью написать практически любой текст – комментарии, новости, статьи, при этом имитируя слог человека. Злоумышленники эту технологию используют, к примеру, для генерирования фальшивых новостей.
С той же легкостью ИИ создаёт и изображения, фотографии – например, реальных или несуществующих людей. Многие такие творения крайне реалистичны, так что мошенники и другие злоумышленники используют их для создания фальшивых профилей в соцсетях.
Видеоролики, сгенерированные нейросетями, также набирают популярность. Особо зловещее применение находит технология дипфейков. С помощью её недоброжелатели создают подобия знаменитостей, чтобы уговаривать людей слать им деньги. Бывают и случаи, когда злоумышленники сеют разногласие в обществе, вкладывая в уста политиков компрометирующие слова, которых они на самом деле не произносили. Подобные уловки используются и при фальсификации аудиозаписей – например, разговоров «мировых лидеров» по телефону.
ТАКЖЕ ЧИТАЙТЕ:
- Цифровое чистилище (X): «Здравствуй, Литва, теперь мы попытаемся сорвать твой исторический день!»
- Цифровое чистилище (XI): «Думаешь, твои данные в соцсетях в сохранности? С помощью их мы избираем президентов и перекраиваем карту мира!»
- Цифровое чистилище (XII): «Хочешь купить этот продукт с блестящими отзывами? Покупай, но этот отзыв придумал робот!»
Комментарии экспертов
- Томас Крилавичюс, декан Факультета информатики Университета Витаутаса Великого: «Меня больше всего беспокоит то, что из-за ИИ объём получаемой нами информации лишь увеличится. А тогда будет сложнее отличить, какая информация реальна, а какая нет».
- Ричардас Савукинас, блогер: «Facebook, к примеру, блокирует пользователей, которые настроены проукраински или высказываются о каких-либо проблемах. При этом платформа никак не реагирует на ложные утверждения, либо даже их продвигает. А всё потому, что в какой-то момент искусственный интеллект решил, что одно хорошо, а другое – плохо».
Гонка с прогрессом
Создать предохранители уже спешат правительства по всему миру. В прошлом году в Великобритании был учреждён первый в мире институт безопасности ИИ. Ему поручено выявлять различные угрозы – от распространения дезинформации до возникновения экзистенциальных рисков. Лидеры «Большой семёрки», в свою очередь, уже согласовали принципы этичной разработки нейросетей. Между тем страны ЕС после напряжённых переговоров в этом году одобрили свод правил по ограничению применения ИИ. Принятый правовой акт станет первой в мире попыткой регулировать эти мощные технологии.
ТАКЖЕ ЧИТАЙТЕ:
- Цифровое чистилище (XIII): «Бери этот новенький телефон за полцены. А когда он вдруг перестанет работать, сможешь лущить им орехи»
- Цифровое чистилище (XIV): «Думаешь, провокации в интернете – это вздор? Тогда приходи на мой несанкционированный митинг!»
Фото: Canva.com.
При поддержке: