• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Фактчекинг: создает ли ChatGPT вирусы-мутанты?

Фактчекинг: создает ли ChatGPT вирусы-мутанты?

© iStock

В соцсетях распространяется информация о том, что ChatGPT создает вирусы-мутанты, которые невозможно обнаружить с помощью антивирусных программ. Так ли это, разбираемся в совместном проекте НИУ ВШЭ и АНО «Диалог Регионы» по проверке достоверности информации в рамках фактчекинговой платформы «Лапша Медиа».

В соцсетях сообщают, что ChatGPT создает вирусы-мутанты, которые невозможно обнаружить с помощью антивирусных программ. Такой вывод делается на основании публикации в издании СNews. В статье говорится о том, что ChatGPT оказался способен помогать в создании вирусов с полиморфным (меняющимся) кодом, которые могут не обнаруживаться современными антивирусными системами.

Такой способ его использования продемонстрировали эксперты по кибербезопасности, утверждается в публикации. Хакеры тоже регулярно обращаются к нему за помощью, некоторым из них он пишет вредоносное ПО с нуля. При этом подчеркивается, что Microsoft вливает в эту нейросеть огромные суммы.

Нейросеть ChatGPT — это инструмент на базе искусственного интеллекта, который умеет рисовать, вести беседу, писать тексты, программный код, искать картинки, поддерживать, давать советы и выполнять множество других функций. В российских СМИ широко обсуждалась новость о том, что студент бакалавриата из Москвы Александр Жадан написал дипломную работу с помощью чат-бота ChatGPT и смог защитить ее в своем вузе. Он рассказал, что не хотел делать диплом самостоятельно или платить за его написание. При этом сначала Жадан попросил ChatGPT написать план диплома по заданной теме и отправил его научному руководителю, ничего не меняя. Тот потребовал исправить план в соответствии с методичкой по написанию научных работ. Тогда студент попросил ChatGPT изучить справочный материал и адаптировать под него план диплома.

За последнее время было также множество публикаций, посвященных неограниченным возможностям нейросети, в частности тому, что в перспективе ChatGPT сможет заменить разных специалистов: графических дизайнеров, журналистов, копирайтеров, аналитиков, юристов, программистов и т.д.

Признавая большие перспективы развития ChatGPT, большинство экспертов все же выразили сомнения в безграничных возможностях нейросети. Как отмечает, например, Андрей Иванников, CEO RentaTeam, хотя эта нейросеть «знает языки лучше любого программиста, может подсказывать варианты по архитектуре, отлично умеет править баги», однако, в отличие от человека, она не умеет думать. 

«В текущем виде она вполне способна заменить стажера или даже джуна. Что-то более сложное — пока точно нет, нужен человек. Нужно уметь задавать правильные вопросы, нужно думать (а не знать), нужно синтезировать уникальные идеи, уникальные решения», — отмечает эксперт.

В возможности генерации вирусов-мутантов эксперты также сомневаются. Как подчеркнул генеральный директор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин в комментарии изданию BFM, полиморфные вирусы известны с 1980-х годов и антивирусные программы умеют их обнаруживать, а ChatGPT и подобные нейросети ничего нового создать не способны.

«Полиморфные вирусы в процессе распространения меняют свой код. Здесь действуют определенные законы, которые, похоже, не изменить. Каким бы полиморфным вирус ни был, у него должно быть неизменяемое ядро. Антивирус отыскивает полиморфные вирусы как раз по таким сигнатурам. Хотя с этим тоже можно бороться, есть методы и со стороны зловредов, и со стороны антивирусов. Но поскольку теме полиморфных вирусов в компьютере 40 лет, специалисты в области кибербезопасности прекрасно знакомы с этой концепцией», — рассказал эксперт.

По его словам, даже если будут появляться новые идеи в области вирусописательства, их не позволят сгенерировать в ChatGPT — их будут делать люди, нацеленные на деструктивную деятельность, подчеркивает он.

«Нельзя говорить, что искусственный интеллект начинает нас порабощать, выдумывает новые концепции, разрушающие современные рамки кибербезопасности. Такого нет, и такое вряд ли в ближайшее время произойдет», — резюмирует он.

Как отметил в комментарии газете «Коммерсантъ» руководитель департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ Евгений Соколов, модели вроде ChatGPT крайне хороши в создании текстов. Они могут сгенерировать официальное письмо на основе краткого неформального описания, сделать красивое рекомендательное письмо и подготовить ответ на жалобу.

Евгений Соколов

«Причесать текст, налить “воды” или, наоборот, сократить, сделать краткую выжимку. Тот же ChatGPT мы можем использовать в качестве помощника. Но у этих моделей ИИ есть и минусы. Например, они значительно упрощают генерацию фейковых текстов. С помощью алгоритма за пару секунд можно написать большой энциклопедический текст про несуществующую породу собак и засорить такими текстами весь интернет. И непонятно, как люди будут узнавать, существуют ли такие собаки в природе или нет. Может, они живут на другом континенте, в другой стране? Проверять такие факты крайне нетривиально, это большая работа. Интернет и так славится тем, что в нем много неправды, а сейчас генерировать ложь становится еще проще, чем раньше», — говорит эксперт.