Команда независимых экспертов, приглашенная компанией OpenAI, присвоила нейросети GPT-4o «средний» уровень риска. Сгенерированные ИИ тексты сочли довольно убедительными.
Исследовательский документ с описанием проверки OpenAI опубликовала на своем сайте. Нанятые внешние эксперты оценивали новую модель по четырем категориям риска: cybersecurity (кибербезопасность), biological threats (биологическая угроза), persuasion (убедительность), and model autonomy (автономность). Три теста из четырех показали «низкий» уровень опасности, однако с текстами ИИ дело обстояло иначе.
Как выяснили специалисты, сгенерированные GPT-4o материалы получились более убедительными, чем написанные человеком тексты. Таким образом ИИ может эффективно влиять на мнение читателей. В связи с этим модели присвоили «средний» уровень риска.
Среди прочего, новую модель проверили на генерацию запрещенного аудиоконтента, вроде эротических, насильственных звуков или незаконных инструкций. В подавляющем большинстве случаев ИИ отказался воспроизводить подобные аудио.
Ранее стало известно, что OpenAI откладывает выход в открытый доступ детектора текстов ChatGPT. Также на днях компанию покинули сразу три влиятельных сотрудника.