Решение с ошибками: в США судья признал, что его сотрудники использовали ИИ при составлении постановления
Как передает Qazaq24.com, основываясь на информации сайта Informburo.KZ.
В США федеральный судья Генри Уингейт признал, что его сотрудники использовали искусственный интеллект для составления постановления, которое содержало ошибки, сообщает Associated Press.
20 июля суд вынес запрет, приостанавливающий действие закона штата Миссисипи о многообразии и инклюзивности в образовании. Приказ имел ошибки: в нём значились имена ответчиков и истцов, которые не были сторонами дела, а также неверно процитированы законы и дана ссылка на несуществующее дело.
Это вызвало обеспокоенность генеральной прокуратуры штата, тогда Уингейт заменил постановление исправленной версией и удалил ошибочный документ из реестра. Судья отклонил запрос Генпрокуратуры о восстановлении первоначального решения, а причиной ошибок назвал "канцелярские оплошности".
Только сейчас Уингейт признал, что один из его помощников использовал программу искусственного интеллекта Perplexity для анализа общедоступной информации из досье при составлении постановления. Судья заявил, что примет меры, чтобы подобное не повторилось.
"Я веду очень плотный список дел и стремлюсь сохранить доверие общественности, отправляя правосудие справедливо и прозрачно. Учитывая, что я сам и мои сотрудники придерживаются самых высоких стандартов, я не ожидаю, что подобная ошибка повторится в будущем", – сказал Уингейт.
По данным СМИ, использование ИИ в федеральной судебной системе является серьёзной проблемой. Юристы полагаются на программное обеспечение, обрабатывая огромные объёмы данных для исследования дел и цитирования их в юридических заключениях.
Другие новости на эту тему:
Просмотров:108
Эта новость заархивирована с источника 25 Октября 2025 14:17 



Войти
Новости
Погода
Магнитные бури
Время намаза
Драгоценные металлы
Конвертор валют
Кредитный калькулятор
Курс криптовалют
Гороскоп
Вопрос - Ответ
Проверьте скорость интернета
Радио Казахстана
Казахстанское телевидение
О нас








Самые читаемые



















