Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации.
По словам специалистов, человечество недалеко от создания опасно сильного искусственного интеллекта (ИИ). Об этом сообщается в пресс-релизе на Techxplore.Согласно документу GPT-4, являющаяся новейшей версией чат-бота ChatGPT, на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня.
Так, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.Авторы отчета высказывают опасение, что искусственный интеллект может придумывать факты, генерируя более убедительную дезинформацию, чем это делали предыдущие версии.
Кроме того, зависимость от модели может помешать развитию новых навыков или даже привести к потере уже сформированных навыков.Одним из примеров проблемного поведения ChatGPT была его способность обмануть соискателя работы.