Один адвокат обнаружил, что ChatGPT не всегда можно верить. Он использовал чат-бота для заполнения документов по одному из своих исков, а тот представил несуществующие судебные решения.
Эксперты подчеркивают, что не следует безоговорочно полагаться на искусственный интеллект, поскольку чатботы часто могут искажать истину, а информацию, которую они предоставляют, необходимо проверять. Это стало до боли очевидно для адвоката Стивена Шварца из юридической фирмы Levidow, Levidow & Oberman, который пошел по кратчайшему пути и подготовил ходатайство по одному из своих дел с помощью ChatGPT. Однако это ходатайство содержало ложную информацию.
Как сообщает The New York Times, адвокат, который в профессии уже около 30 лет, взялся за дело Роберто Мата, который подал в суд на авиакомпанию за то, что стюардесса в инвалидном кресле повредила ему колено во время полета.
Авиакомпания Avianca хотела добиться прекращения дела, поэтому адвокат пострадавшего подал ходатайство о продолжении судебного процесса, ссылаясь на судебные решения по аналогичным делам в прошлом. Однако вместо того, чтобы сделать это самому, он решил облегчить себе работу и прибегнул к помощи ChatGPT, что оказалось большой ошибкой. Чатбот предоставил ему названия аналогичных судебных процессов, которые, как выяснилось позже, никогда не проводились.
Позднее адвокат дал показания, что он не понимал, что информация, предоставленная искусственным интеллектом, может быть ложной. Поэтому в следующем месяце состоится еще одно слушание, на котором будет решаться вопрос о том, следует ли наложить на него санкции за использование ложной информации в судебном заявлении. Это связано с тем, что адвокат, несомненно, поставил под угрозу имидж своей юридической фирмы, а также свою