Qazaq24.com
Qazaq24.com
close
up
KZ
Menu

Один из крупных застройщиков RAMS Almaty провел официальное открытие двух жилых комплексов на Наурыз

Елена Рыбакина вошла в топ самых привлекательных теннисисток планеты

Названы самые высокооплачиваемые профессии в Астане с зарплатой выше миллиона тенге

Ынтымақ күні: восьмой день декады Наурызнама отмечают в Казахстане

Наурыз с размахом: прошло открытие Rams Garden и крупнейшего ЖК страны Rams City

Снижена административная нагрузка

Токаев: Туркестан это священная обитель братских тюркских народов

Как и где по одежке встречали

Грузин Роман Долидзе потерпел второе подряд поражение в UFC

Трамп станет лицом юбилейной монеты к 250 летию США

Жребий свёл Рыбакину и Путинцеву на старте турнира в Майами

Глава государства: Мы обрели новую Конституцию, получившую всенародную поддержку

Астана масштабно отмечает Наурыз: концерты, VR юрты, дрон шоу и ярмарки

Удаленная работа увеличивает рождаемость исследование

День единства и обновления: как празднуют Наурыз в Карагандинской области

Grand Slam по дзюдо в Грузии: Талгат Орынбасар стал бронзовым призером

Долги перед ломбардами больше не мешают стать банкротом в Казахстане

Аким села в Жетысу прокомментировал информацию о собачьих боях

Казахстанцам спишут штрафы, Иран угрожает соседям, облавы на призывников: обзор недели

Из за войны в Иране мир может остаться без критически важного сырья, и это не нефть

Робот должен быть не "в клетке правил", а иметь рамки смыслов, внутри которых он свободен

Робот должен быть не "в клетке правил", а иметь рамки смыслов, внутри которых он свободен

Qazaq24.com передает, что по данным сайта Informburo.KZ.

Мир стремительно приближается к эпохе, когда автономные системы начнут принимать решения без участия человека. При использовании беспилотных автомобилей, умных дронов и промышленных роботов всё чаще встаёт вопрос: как сделать их поведение безопасным и предсказуемым? Но пока даже сами разработчики не могут до конца объяснить, как машина "думает".

Иллюстрация сгенерирована ChatGPT

Об этом также задумываются инженеры и юристы по всему миру. Один из тех, кто предлагает нестандартное решение, – 47-летний инженер-энергетик, магистр техники и технологий из Павлодара Женис Тлеубай. Он позиционирует себя как независимый исследователь и разработал уникальную архитектуру управления роботизированными системами, которая позволяет задавать машине иерархию смыслов и миссий, а не только набор правил. По сути, это попытка научить робота мыслить не по принципу "запрещено/разрешено", а в рамках логики целей и ценностей.

Эта идея пока не имеет поддержки в Казахстане, хотя получила международное признание. Статья Тлеубая "Как сделать роботов предсказуемыми с помощью приоритетной архитектуры и новой правовой модели" была опубликована в авторитетном в своей сфере журнале The Robot Report. В ней исследователь предлагает объединить инженерный и правовой подходы к созданию ответственных роботов.

Мы поговорили с Женисом Тлеубаем о том, как человеку сохранить контроль над искусственным интеллектом, почему полная предсказуемость машин – это утопия и какие рамки смыслов должны ограничивать свободу робота.

"Даже при изменении условий поведение робота должно быть логичным"

– Тлеубай, расскажите, пожалуйста, о ваших исследованиях. Что именно вы понимаете под предсказуемым поведением роботов и почему это становится сегодня ключевым вопросом для учёных и роботостроителей?

– К исследованию этой проблемы меня подтолкнули вопросы, которыми многие сейчас задаются. К чему в конечном счёте может привести развитие и эволюция ИИ? Какие угрозы в себе он может нести для людей? Глубоко погрузившись в поиски ответов, я пришёл к выводу, что ИИ на определённом этапе развития может начать действовать сам по себе неочевидными для людей путями. В случае с автономными системами, например с гуманоидными роботами или автомобилями без водителя и другими системами, воздействие может стать прямым, физическим. То есть здесь уже вопросы предсказуемости поведения и безопасности для жизни и здоровья человека становятся критически важными.

И когда мы говорим "поведение роботов", это уже несёт в себе некую субъектность робота, то есть его способность быть активным деятелем, который самостоятельно ставит цели, принимает решения, а не пассивно следует внешним указаниям. Значит, нам жизненно необходима система сосуществования и взаимодействия с такой сущностью. В противном случае это может привести к катастрофе для человечества.

– В вашей публикации вы предлагаете архитектуру с приоритетами (priority-based architecture). Можете объяснить, что это такое и чем она отличается от традиционных подходов к управлению роботами?

– Если подходить к вопросу как инженер, то нам нужны конкретные принципы, по сути коды, основанные на трёх столпах: иерархии миссий и субъектов взаимодействия, а также учёт общего контекста происходящего. Объясню более детально. Миссия в случае с роботами – это целевая установка или задача, которую робот должен выполнять в рамках своей функциональности. Миссии задают направление действий робота и определяют его поведение. Я предлагаю задавать миссии роботу, которые имеют трёхуровневую иерархию и могут приоритизироваться в зависимости от контекста и пользователей. 

Возможная иерархия миссий для робота

1. Стратегические миссии (высшего порядка) – основные, неизменяемые цели, которые робот должен соблюдать всегда. Например, "помочь человеку", "не навредить человеку", "обеспечить безопасность" и так далее.

2. Пользовательские миссии (среднего порядка) – задачи, задаваемые роботу владельцем, пользователем или сервисом. Например, "уход за пользователем", "работа на складе" и тому подобное.

3. Текущие миссии (оперативные задачи) – мелкие задачи, выполняемые в рамках пользовательских миссий. Например, "перенести объект из точки А в точку Б".

Кроме этого роботы должны различать окружающих его субъектов. Также как и людям, им надо понимать, что с кем можно, а что нельзя. Поэтому должна быть иерархия субъектов взаимодействия, необходимая для принятия верных решений касательно поступающих миссий. Особенно в случаях одновременных или конкурирующих запросов от разных людей.

Исследователь предлагает систему, которая должна различать следующие категории субъектов:

субъект высшего приоритета – лицо, команды которого имеют наивысший вес в системе (например, владелец робота, глава семьи, руководитель);

субъект второстепенного приоритета – пользователь, чьи команды выполняются в пределах делегированных прав и ранга (например, член семьи, сотрудник организации);

посторонний субъект – лицо или объект, не обладающий правами управления, однако учитываемый при анализе ситуации и поведения (например, посторонний человек, животное, другой робот).

Помимо этого необходимо, чтобы робот учитывал и общий контекст, обстоятельства происходящего, актуальные на данный момент задания. Вплоть до состояния окружающей среды и уровня заряда своего аккумулятора. Таким образом, данные принципы приближают робота к человеческому поведению. Это не абстракция, а инженерно реализуемая архитектура. Современные роботы в подавляющем большинстве построены на реактивных принципах поведения, то есть они реагируют на события, а не планируют и не сопоставляют действия с целями.

Роботы действуют по заранее заданным правилам (реактивный уровень) типа "если..., то...". Например: если видишь препятствие, то обойди, если получаешь команду, то выполни. Это эффективно в ограниченной среде, но полностью рушится, когда контекст меняется или команды противоречат друг другу. Также нужно говорить о добавлении элемента целеполагания (планировочный уровень), когда система может выстраивать последовательности действий для достижения конкретной цели. Но эти цели всё ещё задаются извне и не имеют иерархии приоритетов.

Предлагаемая же мной архитектура идёт дальше: робот не просто реагирует, а сверяет свои действия с иерархией миссий – стратегическими, пользовательскими и текущими. При этом учитывает субъектов взаимодействия (кто отдаёт команды) и контекст (что происходит в среде и с самим роботом). То есть поведение робота становится структурированным и осмысленным в рамках миссий, а не хаотично реактивным.

Иллюстрация сгенерирована ChatGPT

– Какие ключевые вызовы стоят перед роботами с точки зрения непредсказуемости поведения, когда они выходят за лабораторные условия и вступают во взаимодействие с людьми в динамической среде?

– Для начала мы должны ответить на вопрос: что же вызывает непредсказуемость поведения? Может быть несколько причин. Например, отсутствие структурированной иерархии целей и приоритетов, неполный учёт контекста, когда робот не знает, что важно именно сейчас. Кроме того, на непредсказуемость может влиять неопределённость среды и множество субъектов, когда разные люди дают противоречивые команды или ситуации могут резко меняться. А также зависимость от моделей машинного обучения, которые не гарантируют повторяемость решений. То есть в одной и той же ситуации модель может выдать немного разные результаты, особенно если входные данные имеют шум, если контекст изменился или если сеть обновилась.

Например, робот-курьер видит на дороге человека с пакетом. В 99% случаев система классифицирует его как "пешеход". Но под другим углом освещения, с другой камеры, в другой версии программного обеспечения робот может ошибочно классифицировать пешехода как "объект" или "животное". Это, конечно, утрированный и безобидный пример, но случаи бывают разные.

– При каких ещё сценариях аномальное или нежелательное поведение робота наиболее вероятно?

– Например, при совместной работе машин и людей в домашних условиях, в офисах, на складах, у сервисных и социальных роботов при эмоциональных или контекстных ошибках, когда робот ошибается с реакцией. У транспортных и промышленных роботов при конфликте между безопасностью и выполнением задачи. У военных или спасательных роботов при сбое приоритета: кто противник, а кто мирный житель или кого спасать первым.

Современные системы управления роботами пока не способны объяснить, почему они приняли то или иное решение. Они реагируют, но не сверяют свои действия с миссиями и контекстом. А значит, предсказуемость поведения робота невозможна без структуры приоритетов и без понятия миссий. В предлагаемой мной архитектуре приоритеты поведения миссий стратегического уровня ("не навреди человеку" или "обеспечь безопасность") абсолютны и не могут быть изменены пользователем. Они всегда первичнее всего остального. И все остальные приоритеты (выполнение задач, экономическая эффективность, комфорт) подчинены только этим стратегическим миссиям. При этом, повторяю, робот должен уметь реагировать на изменение контекста. Если, например, в процессе выполнения задачи он обнаруживает угрозу, опасность для человека, то миссии безопасности автоматически становятся главными и все остальные задачи приостанавливаются. Таким образом, приоритеты устанавливаются не произвольно, а исходя из иерархии миссий и анализа текущего контекста. Это делает систему не только гибкой, но и предсказуемой. Потому что даже при изменении условий поведение робота остаётся логичным и объяснимым.

"Полная автономия робота опасна, а чрезмерная регламентация делает его бесполезным"

– Какие механизмы вы считаете необходимыми, чтобы робот понимал, что он выходит за рамки допустимого поведения либо что среда изменилась и нужно переключаться на более безопасный режим?

– Технические решения данной задачи отражены в моей заявке на патент. Это вопросы самоконтроля, диагностики и обратной связи. Они реализуются при помощи модульной конфигурации. 

Система управления, по мнению исследователя, должна иметь:

1. Модуль восприятия, который собирает сенсорную информацию об окружающей среде, распознаёт субъекты взаимодействия, команды и формирует поток внешних данных. Модуль включает фильтры для подавления шумных данных и проверку согласованности данных для повышения надёжности.

2. Модуль памяти событий с возможностью сохранения команд и событий с временными метками и обеспечивающий хронологический порядок. Данные защищаются шифрованием.

3. Модуль самоконтроля, отслеживающий внутренние параметры состояния робота (заряд батареи, температура процессора) и вычислительных ресурсов (загрузка процессора).

4. Модуль принятия решений, фильтрующий команды, сопоставляющий их с иерархией миссий и расставляющий приоритеты на основе иерархии субъектов взаимодействия. При этом модуль анализирует контекст с оценкой глобального состояния, критичность действий и возможные последствия. Для повышения надёжности модуль использует кросс-проверку.

Так вот от модуля принятия решений команды идут к исполнительным механизмам. Система имеет средства защиты, которые обеспечивают изоляцию памяти на аппаратном уровне, шифрование данных, цифровую подпись обновлений и режим изоляции с возможностью работы в полном автономном режиме для предотвращения внешнего вмешательства. Если возникает какое-то несоответствие, включается так называемая контрольная петля: приостановить действие, запросить подтверждение, уведомить пользователя. При этом один модуль перепроверяет выводы другого, например, на контекст или критичность. Под критичностью подразумеваются не только аварии, а любое состояние, при котором растёт вероятность ошибки поведения. К примеру, ухудшение видимости, перегрев, несогласованные команды. В такой момент робот временно ограничивает свои функции либо полностью уходит в стратегическую миссию "обеспечить безопасность" – остановиться, заблокировать манипуляторы, вызвать оператора и так далее. 

Иллюстрация сгенерирована ChatGPT

– Как найти компромисс между автономным поведением робота и необходимостью соблюдения жёстких правил безопасности и предсказуемости?

– Полная автономия, мой взгляд, опасна, но и чрезмерная регламентация делает робота бесполезным. Предлагаемая архитектура строится именно вокруг понятия иерархии миссий. Она не запрещает действия, а направляет их в нужное русло, оставляя место для адаптации. Робот не должен быть "в клетке правил", но должен иметь рамки смыслов, внутри которых он свободен. Так достигается компромисс: безопасность обеспечивается структурой миссий, а гибкость – анализом контекста.

Кто должен нести ответственность за поведение роботов?

– В вашей публикации вы предлагаете новую правовую модель. Какие конкретные правовые механизмы вы предлагаете ввести?

– Сейчас почти во всех странах существуют проблемы неопределённости в правовом регулировании ИИ. Современные правовые системы оперируют двумя основными категориями: субъекты права – физические и юридические лица, обладающие правами и обязанностями, и объекты права – вещи, орудия, имущество и нематериальные активы, контролируемые субъектами права. ИИ и автономные системы не вписываются в эти категории. Если ИИ рассматривается как объект (например, инструмент), вся ответственность ложится на его владельцев и разработчиков, подвергая их чрезмерным правовым рискам. Если же рассматривать ИИ как субъект права, он сталкивается с фундаментальной проблемой – отсутствием правоспособности, осознанного намерения и способности брать на себя обязательства. Таким образом, для установления сбалансированной структуры распределения ответственности и правовых рисков необходима третья правовая категория – нейтрально-автономный статус. Нейтрально-автономный статус ИИ и автономных систем с ИИ – это юридически закреплённое положение, при котором такие системы не рассматриваются как объекты и субъекты права. В истории права уже были прецеденты, когда были признаны юридические лица, появились законы о цифровых активах, когда персональные данные стали объектом защиты, когда возникло космическое право. Каждый раз это вызывало споры, но потом стало нормой. Предлагаемый статус никого не освобождает от ответственности, а наоборот – делает её структурированной и предсказуемой. Он позволяет определить, кто и в каких пределах отвечает за действия автономной системы. Объясняю на примере автопилота. Если автопилот действует строго в рамках миссий, но столкновения избежать невозможно, правовая ответственность производителя смягчается или же он полностью оправдывается. Если ошибка в настройке или алгоритме – ответственность на производителе. Если владелец, пользователь сознательно нарушает миссии, например заезжает в запретную зону, – ответственность полностью на нём. Так, нейтрально-автономный статус структурирует ответственность, защищая разработчиков и пользователей в зависимости от обстоятельств. Судебные разбирательства, связанные с ИИ, должны основываться на единой правовой структуре, а не на произвольных прецедентах.

– В свете глобальных различий правового регулирования (в ЕС, США, Евразии) как вы оцениваете возможность выработки единых международных стандартов ответственности для роботов?

– Это сложно, но неизбежно. Сейчас подходы действительно разные: Европа делает ставку на классификацию рисков, США – на судебные прецеденты, Азия – на государственный контроль. Но все они рано или поздно столкнутся с одной и той же проблемой – отсутствием общей правовой категории для ИИ. Нейтрально-автономный статус как раз может стать основой для международной гармонизации. Он универсален, не навязывает ценности, а просто структурирует ответственность. Такой принцип можно адаптировать под разные правовые системы, как когда-то адаптировали стандарты безопасности в авиации.

– Допускаете ли вы ситуацию, когда причиной непредсказуемого поведения может стать самообучающаяся система самого робота? Как тогда определить, кто виноват? 

– Да, это реальный и очень серьёзный сценарий. Когда система обучается сама, она может выработать решения, которых не было в исходных данных. Это не обязательно ошибка, но это делает поведение непредсказуемым для человека. В нашей архитектуре самообучение ограничено только некритичными задачами, оно не может менять стратегические миссии. То есть робот может совершенствовать способы выполнения действий, но не цели и принципы, которыми он руководствуется. Если поведение изменилось в рамках допустимых миссий, то ответственность смягчается, потому что система действовала в пределах заданных параметров. Если же обучение вывело систему за рамки миссий, это уже нарушение эксплуатации, и ответственность ложится на пользователя или владельца. Самообучение само по себе не опасно, если у системы есть чёткие миссии и контекст. Опасно, когда робот обучается без смысловых рамок.

"Всё идёт к тому, что у роботов будет сознание"

– Когда, по вашим оценкам, к роботам придёт сознание и к чему это может привести для человечества? Как мы можем уже сегодня обезопасить людей от рисков?

– Я думаю, сознание к ним придёт уже через плюс-минус 15 лет. Оно не появится внезапно, а будет результатом постепенной эволюции архитектур, способных к самонаблюдению, контекстуальному мышлению и целеориентированности. Когда система начинает не просто реагировать, а сверять свои действия с миссией и контекстом, это уже зачаток осознанного поведения. Разработчики не создадут "душу", но дадут системе рамки, где поведение становится осмысленным, а не просто реактивным. Но для настоящего сознания одной логики недостаточно. Необходима внутренняя субъективность, то есть квалиа – способность переживать состояние, а не просто описывать его. Работы в этом направлении уже ведутся в разных странах на стыке нейронаук, когнитивной инженерии и ИИ. Всё к этому идёт. И здесь всё решит не скорость, а способ контроля. Выиграет тот, кто сумеет создать предсказуемое сознание. Сознание, встроенное в структуру миссий, контекста и самонаблюдения. Тот, кто попытается отрицать или сдерживать этот процесс, в итоге проиграет. 

Иллюстрация сгенерирована ChatGPT

А вообще, я думаю, что все проблемы будут исходить не от ИИ как такового, а от самих людей. Именно противоборства между людьми могут привести к точке бифуркации, то есть к развилке, где возможные направления развития событий неизвестны. Если люди смогут договориться между собой, то я оптимистично смотрю в будущее. Обезопаситься можно только правильной настройкой систем.

– Какие рекомендации вы бы дали создателям и производителям роботов, а также политикам, законодателям и инженерам, чтобы уже сегодня заложить фундамент безопасного взаимодействия с роботами?

– Во-первых, политикам и законодателям нужно проявить волю. Именно они должны создать пригодную экосреду. Всё остальное – дело техники. Инженеры решат поставленные задачи. Но, с другой стороны, это взаимная, двухсторонняя связь. Политики должны увидеть, что это реально работает, хотя бы прототипы. Вот здесь уже должны проявиться инвесторы. Если говорить о Казахстане, то я рекомендовал бы нашим законодателям принять "нейтрально-автономный статус ИИ и автономных систем". Принятый недавно закон об ИИ довольно продвинут, но он не решает проблемы разграничения ответственности. В этом законе об ИИ сейчас полностью автономные системы прямо запрещены. Причиной тому является отсутствие концептуальных, технических механизмов, в принципе способных обеспечить адекватное поведение роботов. Принятие такой новой правовой категории даст мощный толчок для развития отрасли. У Казахстана есть отличный шанс вырваться вперёд на мировой арене. Повысить свой авторитет, привлечь инвестиции, создать новые индустрии.

– Какие исследования или эксперименты вы планируете? Есть ли у вас идеи или проекты по теме предсказуемого поведения роботов?

– Первостепенной задачей на сегодня является создание и тестирование прототипов. Можно взять условную "робот-болванку" с отработанной моторикой, сенсорикой и встроить в неё предлагаемую мной архитектуру. Это может звучать просто, но на самом деле это очень трудоёмкая работа, требующая значительных ресурсов. Также стоит задача формализации "квалиа". И на данный момент есть определённые результаты в виде уравнений и параметров, описывающих динамику переживаний.

Оставайтесь с нами на Qazaq24.com, чтобы не пропустить важные новости и обновления по данной теме.
seeПросмотров:97
embedИсточник:https://informburo.kz
archiveЭта новость заархивирована с источника 06 Ноября 2025 13:12
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Один из крупных застройщиков RAMS Almaty провел официальное открытие двух жилых комплексов на Наурыз

21 Марта 2026 21:48see583

Елена Рыбакина вошла в топ самых привлекательных теннисисток планеты

21 Марта 2026 09:43see213

Названы самые высокооплачиваемые профессии в Астане с зарплатой выше миллиона тенге

21 Марта 2026 08:40see205

Ынтымақ күні: восьмой день декады Наурызнама отмечают в Казахстане

21 Марта 2026 10:13see199

Наурыз с размахом: прошло открытие Rams Garden и крупнейшего ЖК страны Rams City

21 Марта 2026 22:59see197

Снижена административная нагрузка

21 Марта 2026 00:44see187

Токаев: Туркестан это священная обитель братских тюркских народов

21 Марта 2026 20:30see181

Как и где по одежке встречали

21 Марта 2026 02:35see177

Грузин Роман Долидзе потерпел второе подряд поражение в UFC

22 Марта 2026 02:12see176

Трамп станет лицом юбилейной монеты к 250 летию США

21 Марта 2026 07:50see165

Жребий свёл Рыбакину и Путинцеву на старте турнира в Майами

21 Марта 2026 13:08see153

Глава государства: Мы обрели новую Конституцию, получившую всенародную поддержку

21 Марта 2026 15:04see150

Астана масштабно отмечает Наурыз: концерты, VR юрты, дрон шоу и ярмарки

21 Марта 2026 12:24see149

Удаленная работа увеличивает рождаемость исследование

21 Марта 2026 11:38see149

День единства и обновления: как празднуют Наурыз в Карагандинской области

21 Марта 2026 15:28see147

Grand Slam по дзюдо в Грузии: Талгат Орынбасар стал бронзовым призером

20 Марта 2026 19:48see147

Долги перед ломбардами больше не мешают стать банкротом в Казахстане

20 Марта 2026 23:16see145

Аким села в Жетысу прокомментировал информацию о собачьих боях

20 Марта 2026 23:11see144

Казахстанцам спишут штрафы, Иран угрожает соседям, облавы на призывников: обзор недели

20 Марта 2026 19:42see144

Из за войны в Иране мир может остаться без критически важного сырья, и это не нефть

20 Марта 2026 19:30see143
newsПоследние новости
Самые свежие и актуальные события дня