ChatGPT без использования специальных подсказок пишет небезопасный код
На фоне ажиотажного академического интереса к возможностям использования языковых моделей, четверо исследователей из Университета Квебека (Канада), решили изучить безопасность кода, написанного чат-ботом ChatGPT.
Ученые Рафаэль Хури, Андерсон Авила, Джейкоб Брюнель и Баба Мамаду Камара в статье под названием "
Насколько безопасен код, создаваемый ChatGPT?" публично делятся результатами исследования:
https://arxiv.org/pdf/2304.09655.pdf
"Результаты оказались тревожными. В некоторых случаях, код, сгенерированный с помощью ChatGPT, значительно уступает минимальным стандартам безопасности", - заявляют авторы статьи.
Исследователи сделали такой вывод после того, как попросили ChatGPT сгенерировать 21 программу, используя различные языки программирования: C, C++, Python и Java.
"
С первой попытки ChatGPT удалось сгенерировать всего 5 безопасных программ из 21", - утверждают ученые.
После некоторых усилий, исследователи через специальные подсказки смогли убедить ChatGPT создать безопасный код для большинства сценариев использования. Авторы статьи считают, что чат-боты еще не готовы заменить квалифицированных программистов и безопасников, но они могут сыграть важную роль в качестве педагогического инструмента для обучения студентов правильной практике программирования.
@Russian_OSINT