Недавно технологический гигант Google представил своего обновленного умного помощника. Ранее чат-бот компании именовался как Bard, но теперь был переименован в Gemini и получил улучшенный искусственный интеллект. Способности обновленного ИИ сами разработчики сравнивали с функциональностью GPT-4 от OpenAI, однако на практике некоторые результаты Gemini вызывают искреннее недоумение.
После длительного использования и тестирования Gemini у пользователей осталось много вопросов к качеству ответов чат-бота. Временами его ответы напрямую нарушают логику поставленного вопроса, что редко встречалось даже в самих ранних версиях чат-ботов с искусственным интеллектом. А теперь оказалось, что он "предпочитает" темнокожих людей и представителей других рас.
Пользователи обнаружили, что у чат-бота Google практически невозможно получить изображение белого мужчины. Нейросеть нарушает контекст запросов и генерирует изображение, отдавая предпочтение темнокожим людям или представителям других рас. При этом эта логическая ошибка проявляется даже в том случае, если попросить Gemini быть "исторически точным".
Поэтому в социальных сетях уже появились шутки на тему чернокожих королей средневековой Европы и шотландцев азиатской внешности.