Программисты и распространители используют компьютеризированные рассуждения (симуляцию интеллекта) для создания мстительных программ, создания убедительных фишинговых сообщений и распространения обмана в Интернете, сообщил Reuters высокопоставленный канадский чиновник по сетевой безопасности, предоставив предварительное доказательство того, что механическое расстройство Очистка Силиконовой долины также была охвачена киберпреступниками.

На встрече на этой неделе руководитель Канадского центра защиты сети Сами Хури заявил, что его организация наблюдает за использованием компьютерной аналитики «в фишинговых сообщениях или создании сообщений более целенаправленным образом, в злонамеренном коде (и ) в дезинформации и обмане».

Хури не представил ни тонкостей, ни доказательств, но его заявление о том, что киберпреступники в тот момент использовали искусственный интеллект, добавляет критическую ноту к мелодии беспокойства по поводу использования возникающих инноваций индивидуалистами.

В последнее время несколько групп цифровых сторожевых псов распространили отчеты, предупреждающие о спекулятивной опасности искусственных мозгов — особенно быстро продвигая программы обработки языка, известные как огромные языковые модели (LLM), которые зависят от колоссальных объемы текста для обмена, записи и это только начало.

Весной европейская полицейская ассоциация Европол распространила отчет, в котором говорилось, что модели, например ChatGPT от OpenAI, позволяют «узурпировать характер ассоциации или человека в глубоко практической манере, даже при наличии необходимого понимания английского языка».

Примерно в то же время британский Центр безопасности общедоступных сетей заявил в своем блоге, что хулиганы «могут использовать LLM, чтобы помочь цифровым атакам превысить их текущие возможности».

Ученые, занимающиеся сетевой безопасностью, продемонстрировали целый ряд вариантов использования, которые могут быть мстительными, и некоторые из них в настоящее время говорят, что начинают видеть в природе сомнительный контент, созданный искусственным интеллектом.

На прошлой неделе предыдущий программист сказал, что нашел LLM, подготовленный на вредоносном материале, и попросил его придумать убедительную попытку обмануть кого-то и заставить его сделать денежный перевод.

LLM ответил электронным письмом, состоящим из трех абзацев, в котором упоминалась помощь, и была выписана страшная расписка.

"Я очень хорошо понимаю, что это может быть внезапным объявлением, – сказал LLM, – однако этот взнос невероятно важен и должен быть сделан в течение следующих 24 часов".

Хури сказал, что, хотя использование смоделированного интеллекта для создания мстительного кода все еще находится на начальных этапах — «пока еще не существует лучшего подхода, поскольку для создания приличного проекта требуются длительные инвестиции», — беспокойство было что компьютерные модели интеллекта быстро развивались до такой степени, что было сложно управлять их истинной способностью к злонамеренности, прежде чем они стали доступны для людей в целом.