Qazaq24.com
Qazaq24.com
close
up
KZ
Menu

Вместе с народом! : в Акмолинской области системно реализуется предвыборная программа партии AMANAT

О тюрьме и штрафах за использование этого продукта в Гонконге предупредили Казахстанцев

Население Казахстана превысило 20,5 млн человек: в каких регионах самый большой прирост

Документы под копирку : в Минтруда выявили 167 случаев фиктивного установления инвалидности

Инструктор по дайвингу домогался туристки прямо в море в Египте

Летучая мышь напугала жительницу Шымкента (ВИДЕО)

Минобороны России объявило о перемирии 8 и 9 мая и предупредило о возможных ударах по Киеву

Ребенка сбили насмерть во дворе дома в Астане (ВИДЕО)

Почти четыре тонны незаконно добытой рыбы изъяли в Атырауской области

Старший сын Дэвида и Виктории Бекхэм проигнорировал день рождения отца

С 16 до 50: о скачке дел за воспрепятствование бизнесу рассказал Берик Асылов

Чемпион мира обучает военнослужащих Национальной гвардии таэквондо

Жара надвигается на Шымкент

Получателям льгот приостановили выплаты после проверки Минтруда

Крупная сумма денег пропала из барсетки работника стоматологии в Астане

Никаких поздравлений маме: депутатам Курултая запретят личные обращения на заседаниях

По Алматы лунной походкой как Майкл Джексон. Как танцор превратил челлендж в рекорд

Что будет входить в полномочия вице президента в Казахстане проект закона

Как за 5 минут понять, что вам врут: интервью с профайлером

Кошанов созвал совместное заседание палат парламента

Робот должен быть не "в клетке правил", а иметь рамки смыслов, внутри которых он свободен

Робот должен быть не "в клетке правил", а иметь рамки смыслов, внутри которых он свободен

Qazaq24.com передает, что по данным сайта Informburo.KZ.

Мир стремительно приближается к эпохе, когда автономные системы начнут принимать решения без участия человека. При использовании беспилотных автомобилей, умных дронов и промышленных роботов всё чаще встаёт вопрос: как сделать их поведение безопасным и предсказуемым? Но пока даже сами разработчики не могут до конца объяснить, как машина "думает".

Иллюстрация сгенерирована ChatGPT

Об этом также задумываются инженеры и юристы по всему миру. Один из тех, кто предлагает нестандартное решение, – 47-летний инженер-энергетик, магистр техники и технологий из Павлодара Женис Тлеубай. Он позиционирует себя как независимый исследователь и разработал уникальную архитектуру управления роботизированными системами, которая позволяет задавать машине иерархию смыслов и миссий, а не только набор правил. По сути, это попытка научить робота мыслить не по принципу "запрещено/разрешено", а в рамках логики целей и ценностей.

Эта идея пока не имеет поддержки в Казахстане, хотя получила международное признание. Статья Тлеубая "Как сделать роботов предсказуемыми с помощью приоритетной архитектуры и новой правовой модели" была опубликована в авторитетном в своей сфере журнале The Robot Report. В ней исследователь предлагает объединить инженерный и правовой подходы к созданию ответственных роботов.

Мы поговорили с Женисом Тлеубаем о том, как человеку сохранить контроль над искусственным интеллектом, почему полная предсказуемость машин – это утопия и какие рамки смыслов должны ограничивать свободу робота.

"Даже при изменении условий поведение робота должно быть логичным"

– Тлеубай, расскажите, пожалуйста, о ваших исследованиях. Что именно вы понимаете под предсказуемым поведением роботов и почему это становится сегодня ключевым вопросом для учёных и роботостроителей?

– К исследованию этой проблемы меня подтолкнули вопросы, которыми многие сейчас задаются. К чему в конечном счёте может привести развитие и эволюция ИИ? Какие угрозы в себе он может нести для людей? Глубоко погрузившись в поиски ответов, я пришёл к выводу, что ИИ на определённом этапе развития может начать действовать сам по себе неочевидными для людей путями. В случае с автономными системами, например с гуманоидными роботами или автомобилями без водителя и другими системами, воздействие может стать прямым, физическим. То есть здесь уже вопросы предсказуемости поведения и безопасности для жизни и здоровья человека становятся критически важными.

И когда мы говорим "поведение роботов", это уже несёт в себе некую субъектность робота, то есть его способность быть активным деятелем, который самостоятельно ставит цели, принимает решения, а не пассивно следует внешним указаниям. Значит, нам жизненно необходима система сосуществования и взаимодействия с такой сущностью. В противном случае это может привести к катастрофе для человечества.

– В вашей публикации вы предлагаете архитектуру с приоритетами (priority-based architecture). Можете объяснить, что это такое и чем она отличается от традиционных подходов к управлению роботами?

– Если подходить к вопросу как инженер, то нам нужны конкретные принципы, по сути коды, основанные на трёх столпах: иерархии миссий и субъектов взаимодействия, а также учёт общего контекста происходящего. Объясню более детально. Миссия в случае с роботами – это целевая установка или задача, которую робот должен выполнять в рамках своей функциональности. Миссии задают направление действий робота и определяют его поведение. Я предлагаю задавать миссии роботу, которые имеют трёхуровневую иерархию и могут приоритизироваться в зависимости от контекста и пользователей. 

Возможная иерархия миссий для робота

1. Стратегические миссии (высшего порядка) – основные, неизменяемые цели, которые робот должен соблюдать всегда. Например, "помочь человеку", "не навредить человеку", "обеспечить безопасность" и так далее.

2. Пользовательские миссии (среднего порядка) – задачи, задаваемые роботу владельцем, пользователем или сервисом. Например, "уход за пользователем", "работа на складе" и тому подобное.

3. Текущие миссии (оперативные задачи) – мелкие задачи, выполняемые в рамках пользовательских миссий. Например, "перенести объект из точки А в точку Б".

Кроме этого роботы должны различать окружающих его субъектов. Также как и людям, им надо понимать, что с кем можно, а что нельзя. Поэтому должна быть иерархия субъектов взаимодействия, необходимая для принятия верных решений касательно поступающих миссий. Особенно в случаях одновременных или конкурирующих запросов от разных людей.

Исследователь предлагает систему, которая должна различать следующие категории субъектов:

субъект высшего приоритета – лицо, команды которого имеют наивысший вес в системе (например, владелец робота, глава семьи, руководитель);

субъект второстепенного приоритета – пользователь, чьи команды выполняются в пределах делегированных прав и ранга (например, член семьи, сотрудник организации);

посторонний субъект – лицо или объект, не обладающий правами управления, однако учитываемый при анализе ситуации и поведения (например, посторонний человек, животное, другой робот).

Помимо этого необходимо, чтобы робот учитывал и общий контекст, обстоятельства происходящего, актуальные на данный момент задания. Вплоть до состояния окружающей среды и уровня заряда своего аккумулятора. Таким образом, данные принципы приближают робота к человеческому поведению. Это не абстракция, а инженерно реализуемая архитектура. Современные роботы в подавляющем большинстве построены на реактивных принципах поведения, то есть они реагируют на события, а не планируют и не сопоставляют действия с целями.

Роботы действуют по заранее заданным правилам (реактивный уровень) типа "если..., то...". Например: если видишь препятствие, то обойди, если получаешь команду, то выполни. Это эффективно в ограниченной среде, но полностью рушится, когда контекст меняется или команды противоречат друг другу. Также нужно говорить о добавлении элемента целеполагания (планировочный уровень), когда система может выстраивать последовательности действий для достижения конкретной цели. Но эти цели всё ещё задаются извне и не имеют иерархии приоритетов.

Предлагаемая же мной архитектура идёт дальше: робот не просто реагирует, а сверяет свои действия с иерархией миссий – стратегическими, пользовательскими и текущими. При этом учитывает субъектов взаимодействия (кто отдаёт команды) и контекст (что происходит в среде и с самим роботом). То есть поведение робота становится структурированным и осмысленным в рамках миссий, а не хаотично реактивным.

Иллюстрация сгенерирована ChatGPT

– Какие ключевые вызовы стоят перед роботами с точки зрения непредсказуемости поведения, когда они выходят за лабораторные условия и вступают во взаимодействие с людьми в динамической среде?

– Для начала мы должны ответить на вопрос: что же вызывает непредсказуемость поведения? Может быть несколько причин. Например, отсутствие структурированной иерархии целей и приоритетов, неполный учёт контекста, когда робот не знает, что важно именно сейчас. Кроме того, на непредсказуемость может влиять неопределённость среды и множество субъектов, когда разные люди дают противоречивые команды или ситуации могут резко меняться. А также зависимость от моделей машинного обучения, которые не гарантируют повторяемость решений. То есть в одной и той же ситуации модель может выдать немного разные результаты, особенно если входные данные имеют шум, если контекст изменился или если сеть обновилась.

Например, робот-курьер видит на дороге человека с пакетом. В 99% случаев система классифицирует его как "пешеход". Но под другим углом освещения, с другой камеры, в другой версии программного обеспечения робот может ошибочно классифицировать пешехода как "объект" или "животное". Это, конечно, утрированный и безобидный пример, но случаи бывают разные.

– При каких ещё сценариях аномальное или нежелательное поведение робота наиболее вероятно?

– Например, при совместной работе машин и людей в домашних условиях, в офисах, на складах, у сервисных и социальных роботов при эмоциональных или контекстных ошибках, когда робот ошибается с реакцией. У транспортных и промышленных роботов при конфликте между безопасностью и выполнением задачи. У военных или спасательных роботов при сбое приоритета: кто противник, а кто мирный житель или кого спасать первым.

Современные системы управления роботами пока не способны объяснить, почему они приняли то или иное решение. Они реагируют, но не сверяют свои действия с миссиями и контекстом. А значит, предсказуемость поведения робота невозможна без структуры приоритетов и без понятия миссий. В предлагаемой мной архитектуре приоритеты поведения миссий стратегического уровня ("не навреди человеку" или "обеспечь безопасность") абсолютны и не могут быть изменены пользователем. Они всегда первичнее всего остального. И все остальные приоритеты (выполнение задач, экономическая эффективность, комфорт) подчинены только этим стратегическим миссиям. При этом, повторяю, робот должен уметь реагировать на изменение контекста. Если, например, в процессе выполнения задачи он обнаруживает угрозу, опасность для человека, то миссии безопасности автоматически становятся главными и все остальные задачи приостанавливаются. Таким образом, приоритеты устанавливаются не произвольно, а исходя из иерархии миссий и анализа текущего контекста. Это делает систему не только гибкой, но и предсказуемой. Потому что даже при изменении условий поведение робота остаётся логичным и объяснимым.

"Полная автономия робота опасна, а чрезмерная регламентация делает его бесполезным"

– Какие механизмы вы считаете необходимыми, чтобы робот понимал, что он выходит за рамки допустимого поведения либо что среда изменилась и нужно переключаться на более безопасный режим?

– Технические решения данной задачи отражены в моей заявке на патент. Это вопросы самоконтроля, диагностики и обратной связи. Они реализуются при помощи модульной конфигурации. 

Система управления, по мнению исследователя, должна иметь:

1. Модуль восприятия, который собирает сенсорную информацию об окружающей среде, распознаёт субъекты взаимодействия, команды и формирует поток внешних данных. Модуль включает фильтры для подавления шумных данных и проверку согласованности данных для повышения надёжности.

2. Модуль памяти событий с возможностью сохранения команд и событий с временными метками и обеспечивающий хронологический порядок. Данные защищаются шифрованием.

3. Модуль самоконтроля, отслеживающий внутренние параметры состояния робота (заряд батареи, температура процессора) и вычислительных ресурсов (загрузка процессора).

4. Модуль принятия решений, фильтрующий команды, сопоставляющий их с иерархией миссий и расставляющий приоритеты на основе иерархии субъектов взаимодействия. При этом модуль анализирует контекст с оценкой глобального состояния, критичность действий и возможные последствия. Для повышения надёжности модуль использует кросс-проверку.

Так вот от модуля принятия решений команды идут к исполнительным механизмам. Система имеет средства защиты, которые обеспечивают изоляцию памяти на аппаратном уровне, шифрование данных, цифровую подпись обновлений и режим изоляции с возможностью работы в полном автономном режиме для предотвращения внешнего вмешательства. Если возникает какое-то несоответствие, включается так называемая контрольная петля: приостановить действие, запросить подтверждение, уведомить пользователя. При этом один модуль перепроверяет выводы другого, например, на контекст или критичность. Под критичностью подразумеваются не только аварии, а любое состояние, при котором растёт вероятность ошибки поведения. К примеру, ухудшение видимости, перегрев, несогласованные команды. В такой момент робот временно ограничивает свои функции либо полностью уходит в стратегическую миссию "обеспечить безопасность" – остановиться, заблокировать манипуляторы, вызвать оператора и так далее. 

Иллюстрация сгенерирована ChatGPT

– Как найти компромисс между автономным поведением робота и необходимостью соблюдения жёстких правил безопасности и предсказуемости?

– Полная автономия, мой взгляд, опасна, но и чрезмерная регламентация делает робота бесполезным. Предлагаемая архитектура строится именно вокруг понятия иерархии миссий. Она не запрещает действия, а направляет их в нужное русло, оставляя место для адаптации. Робот не должен быть "в клетке правил", но должен иметь рамки смыслов, внутри которых он свободен. Так достигается компромисс: безопасность обеспечивается структурой миссий, а гибкость – анализом контекста.

Кто должен нести ответственность за поведение роботов?

– В вашей публикации вы предлагаете новую правовую модель. Какие конкретные правовые механизмы вы предлагаете ввести?

– Сейчас почти во всех странах существуют проблемы неопределённости в правовом регулировании ИИ. Современные правовые системы оперируют двумя основными категориями: субъекты права – физические и юридические лица, обладающие правами и обязанностями, и объекты права – вещи, орудия, имущество и нематериальные активы, контролируемые субъектами права. ИИ и автономные системы не вписываются в эти категории. Если ИИ рассматривается как объект (например, инструмент), вся ответственность ложится на его владельцев и разработчиков, подвергая их чрезмерным правовым рискам. Если же рассматривать ИИ как субъект права, он сталкивается с фундаментальной проблемой – отсутствием правоспособности, осознанного намерения и способности брать на себя обязательства. Таким образом, для установления сбалансированной структуры распределения ответственности и правовых рисков необходима третья правовая категория – нейтрально-автономный статус. Нейтрально-автономный статус ИИ и автономных систем с ИИ – это юридически закреплённое положение, при котором такие системы не рассматриваются как объекты и субъекты права. В истории права уже были прецеденты, когда были признаны юридические лица, появились законы о цифровых активах, когда персональные данные стали объектом защиты, когда возникло космическое право. Каждый раз это вызывало споры, но потом стало нормой. Предлагаемый статус никого не освобождает от ответственности, а наоборот – делает её структурированной и предсказуемой. Он позволяет определить, кто и в каких пределах отвечает за действия автономной системы. Объясняю на примере автопилота. Если автопилот действует строго в рамках миссий, но столкновения избежать невозможно, правовая ответственность производителя смягчается или же он полностью оправдывается. Если ошибка в настройке или алгоритме – ответственность на производителе. Если владелец, пользователь сознательно нарушает миссии, например заезжает в запретную зону, – ответственность полностью на нём. Так, нейтрально-автономный статус структурирует ответственность, защищая разработчиков и пользователей в зависимости от обстоятельств. Судебные разбирательства, связанные с ИИ, должны основываться на единой правовой структуре, а не на произвольных прецедентах.

– В свете глобальных различий правового регулирования (в ЕС, США, Евразии) как вы оцениваете возможность выработки единых международных стандартов ответственности для роботов?

– Это сложно, но неизбежно. Сейчас подходы действительно разные: Европа делает ставку на классификацию рисков, США – на судебные прецеденты, Азия – на государственный контроль. Но все они рано или поздно столкнутся с одной и той же проблемой – отсутствием общей правовой категории для ИИ. Нейтрально-автономный статус как раз может стать основой для международной гармонизации. Он универсален, не навязывает ценности, а просто структурирует ответственность. Такой принцип можно адаптировать под разные правовые системы, как когда-то адаптировали стандарты безопасности в авиации.

– Допускаете ли вы ситуацию, когда причиной непредсказуемого поведения может стать самообучающаяся система самого робота? Как тогда определить, кто виноват? 

– Да, это реальный и очень серьёзный сценарий. Когда система обучается сама, она может выработать решения, которых не было в исходных данных. Это не обязательно ошибка, но это делает поведение непредсказуемым для человека. В нашей архитектуре самообучение ограничено только некритичными задачами, оно не может менять стратегические миссии. То есть робот может совершенствовать способы выполнения действий, но не цели и принципы, которыми он руководствуется. Если поведение изменилось в рамках допустимых миссий, то ответственность смягчается, потому что система действовала в пределах заданных параметров. Если же обучение вывело систему за рамки миссий, это уже нарушение эксплуатации, и ответственность ложится на пользователя или владельца. Самообучение само по себе не опасно, если у системы есть чёткие миссии и контекст. Опасно, когда робот обучается без смысловых рамок.

"Всё идёт к тому, что у роботов будет сознание"

– Когда, по вашим оценкам, к роботам придёт сознание и к чему это может привести для человечества? Как мы можем уже сегодня обезопасить людей от рисков?

– Я думаю, сознание к ним придёт уже через плюс-минус 15 лет. Оно не появится внезапно, а будет результатом постепенной эволюции архитектур, способных к самонаблюдению, контекстуальному мышлению и целеориентированности. Когда система начинает не просто реагировать, а сверять свои действия с миссией и контекстом, это уже зачаток осознанного поведения. Разработчики не создадут "душу", но дадут системе рамки, где поведение становится осмысленным, а не просто реактивным. Но для настоящего сознания одной логики недостаточно. Необходима внутренняя субъективность, то есть квалиа – способность переживать состояние, а не просто описывать его. Работы в этом направлении уже ведутся в разных странах на стыке нейронаук, когнитивной инженерии и ИИ. Всё к этому идёт. И здесь всё решит не скорость, а способ контроля. Выиграет тот, кто сумеет создать предсказуемое сознание. Сознание, встроенное в структуру миссий, контекста и самонаблюдения. Тот, кто попытается отрицать или сдерживать этот процесс, в итоге проиграет. 

Иллюстрация сгенерирована ChatGPT

А вообще, я думаю, что все проблемы будут исходить не от ИИ как такового, а от самих людей. Именно противоборства между людьми могут привести к точке бифуркации, то есть к развилке, где возможные направления развития событий неизвестны. Если люди смогут договориться между собой, то я оптимистично смотрю в будущее. Обезопаситься можно только правильной настройкой систем.

– Какие рекомендации вы бы дали создателям и производителям роботов, а также политикам, законодателям и инженерам, чтобы уже сегодня заложить фундамент безопасного взаимодействия с роботами?

– Во-первых, политикам и законодателям нужно проявить волю. Именно они должны создать пригодную экосреду. Всё остальное – дело техники. Инженеры решат поставленные задачи. Но, с другой стороны, это взаимная, двухсторонняя связь. Политики должны увидеть, что это реально работает, хотя бы прототипы. Вот здесь уже должны проявиться инвесторы. Если говорить о Казахстане, то я рекомендовал бы нашим законодателям принять "нейтрально-автономный статус ИИ и автономных систем". Принятый недавно закон об ИИ довольно продвинут, но он не решает проблемы разграничения ответственности. В этом законе об ИИ сейчас полностью автономные системы прямо запрещены. Причиной тому является отсутствие концептуальных, технических механизмов, в принципе способных обеспечить адекватное поведение роботов. Принятие такой новой правовой категории даст мощный толчок для развития отрасли. У Казахстана есть отличный шанс вырваться вперёд на мировой арене. Повысить свой авторитет, привлечь инвестиции, создать новые индустрии.

– Какие исследования или эксперименты вы планируете? Есть ли у вас идеи или проекты по теме предсказуемого поведения роботов?

– Первостепенной задачей на сегодня является создание и тестирование прототипов. Можно взять условную "робот-болванку" с отработанной моторикой, сенсорикой и встроить в неё предлагаемую мной архитектуру. Это может звучать просто, но на самом деле это очень трудоёмкая работа, требующая значительных ресурсов. Также стоит задача формализации "квалиа". И на данный момент есть определённые результаты в виде уравнений и параметров, описывающих динамику переживаний.

Оставайтесь с нами на Qazaq24.com, чтобы не пропустить важные новости и обновления по данной теме.
seeПросмотров:111
embedИсточник:https://informburo.kz
archiveЭта новость заархивирована с источника 06 Ноября 2025 13:12
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Вместе с народом! : в Акмолинской области системно реализуется предвыборная программа партии AMANAT

04 Мая 2026 23:14see309

О тюрьме и штрафах за использование этого продукта в Гонконге предупредили Казахстанцев

04 Мая 2026 17:42see157

Население Казахстана превысило 20,5 млн человек: в каких регионах самый большой прирост

04 Мая 2026 21:11see148

Документы под копирку : в Минтруда выявили 167 случаев фиктивного установления инвалидности

05 Мая 2026 17:46see147

Инструктор по дайвингу домогался туристки прямо в море в Египте

05 Мая 2026 18:59see146

Летучая мышь напугала жительницу Шымкента (ВИДЕО)

04 Мая 2026 18:15see144

Минобороны России объявило о перемирии 8 и 9 мая и предупредило о возможных ударах по Киеву

04 Мая 2026 23:41see144

Ребенка сбили насмерть во дворе дома в Астане (ВИДЕО)

04 Мая 2026 20:17see144

Почти четыре тонны незаконно добытой рыбы изъяли в Атырауской области

05 Мая 2026 16:28see144

Старший сын Дэвида и Виктории Бекхэм проигнорировал день рождения отца

05 Мая 2026 01:43see143

С 16 до 50: о скачке дел за воспрепятствование бизнесу рассказал Берик Асылов

05 Мая 2026 18:49see142

Чемпион мира обучает военнослужащих Национальной гвардии таэквондо

04 Мая 2026 19:41see141

Жара надвигается на Шымкент

04 Мая 2026 18:41see137

Получателям льгот приостановили выплаты после проверки Минтруда

05 Мая 2026 18:18see136

Крупная сумма денег пропала из барсетки работника стоматологии в Астане

05 Мая 2026 18:53see135

Никаких поздравлений маме: депутатам Курултая запретят личные обращения на заседаниях

05 Мая 2026 17:44see135

По Алматы лунной походкой как Майкл Джексон. Как танцор превратил челлендж в рекорд

05 Мая 2026 16:48see134

Что будет входить в полномочия вице президента в Казахстане проект закона

05 Мая 2026 17:27see134

Как за 5 минут понять, что вам врут: интервью с профайлером

05 Мая 2026 18:17see133

Кошанов созвал совместное заседание палат парламента

05 Мая 2026 17:39see133
newsПоследние новости
Самые свежие и актуальные события дня