Кажется, техномиллиардеры готовятся к концу света. Стоит ли нам всем беспокоиться?
Как передает Qazaq24.com, со ссылкой на сайт Informburo.KZ.
Ещё в 2014 году Марк Цукерберг начал работу над Koolau Ranch – обширным жилым комплексом площадью 1400 акров на гавайском острове Кауаи.
Согласно журналу Wired, новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.
Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света – основатель Facebook ответил категорическим "нет". По его словам, подземное пространство – "просто небольшое убежище, похожее на подвал".
Но это не остановило спекуляции – как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров.
Цукерберг потратил 110 миллионов долларов на недвижимость в одном из районов Пало-Альто / Фото Bloomberg via Getty Images
В разрешении на строительство говорится, что Цукерберг оборудует подвалы, но, по данным New York Times, некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.
Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.
Рейд Хоффман, соучредитель LinkedIn, говорил о "страховке от апокалипсиса". По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов – Новая Зеландия.
Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы ещё не знаем?
Сэм Альтман размышлял о том, чтобы присоединиться к Питеру Тилю на удалённом участке в Новой Зеландии в случае глобальной катастрофы / Фото Getty Images News
В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.
Илья Суцкевер, главный научный сотрудник и соучредитель Open AI, по сообщениям, является одним из них.
К середине 2023 года, когда компания из Сан-Франциско выпустила ChatGPT – чат-бота, который сейчас используют сотни миллионов людей по всему миру, – и быстро работала над обновлениями, Суцкевер всё больше убеждался, что компьютерные учёные находятся на грани разработки общего искусственного интеллекта (ОИИ) – момента, когда машины сравняются с человеческим интеллектом.
В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих учёных компании до того, как такая мощная технология будет выпущена в мир.
"Мы обязательно построим бункер, прежде чем выпустим ОИИ", – как сообщается, сказал Илья Суцкевер / Фото AFP via Getty Images
"Мы обязательно построим бункер, прежде чем выпустим ОИИ", – сказал Суцкевер, хотя неясно, кого он имел в виду под словом "мы".
Это проливает свет на странный факт: многие ведущие компьютерные учёные и технологические лидеры, некоторые из которых усердно работают над разработкой чрезвычайно интеллектуальной формы ИИ, также, похоже, глубоко опасаются того, что к чему это однажды может привести.
Так когда же именно – если вообще когда-нибудь – появится ОИИ? И действительно ли он может оказаться настолько революционной технологией, что обычные люди начнут его бояться?
"Раньше, чем мы думаем"
Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдёт "«раньше, чем думает большинство людей в мире".
Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдёт в ближайшие пять-десять лет, а основатель Anthropic Дарио Амодей написал в прошлом году, что "мощный ИИ" может появиться уже в 2026 году.
Другие относятся к этому скептически. "Они постоянно меняют правила игры, – говорит Венди Холл, профессор информатики Университета Саутгемптона. – Всё зависит от того, с кем вы разговариваете".
Джон фон Нейман считается одним из первых, кто упомянул концепцию сингулярности, задолго до того, как она получила название. Он был физиком, математиком, экономистом и компьютерным учёным / Фото Getty Images
В книге "Генезис 2024", написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая становится настолько эффективной в принятии решений и руководстве, что мы в конечном итоге полностью передаём ей контроль.
По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдёт.
Деньги для всех без необходимости работать?
Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.
Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре "всеобщего высокого дохода".
Недавно он поддержал идею о том, что ИИ станет настолько дешёвым и распространённым, что практически каждый захочет иметь "своего личного R2-D2 и C-3PO" (ссылаясь на дроидов из "Звёздных войн").
"У каждого будет лучшее медицинское обслуживание, еда, транспорт и всё остальное. Устойчивое изобилие", – восторженно заявил он.
Конечно, есть и страшная сторона. Может ли эта технология быть захвачена террористами и использована в качестве оружия, или что, если она сама решит, что человечество является причиной мировых проблем, и уничтожит нас?
"Научное сообщество утверждает, что технология ИИ потрясающая, – добавляет она. – Но она далека от человеческого интеллекта".
Сначала необходимо будет совершить ряд "фундаментальных прорывов", соглашается Бабак Ходжат, технический директор технологической компании Cognizant.
И вряд ли это произойдёт в один момент. Скорее, ИИ – это быстро развивающаяся технология, которая находится в стадии становления, и многие компании по всему миру стремятся разработать свои собственные версии этой технологии.
Илон Маск выражает идею, что каждый захочет иметь своего собственного R2-D2 и C-3PO / Фото AFP via Getty Images
"Если что-то умнее нас, то мы должны держать это под контролем, – предупредил Тим Бернерс-Ли, создатель Всемирной паутины. – Мы должны иметь возможность это отключить".
И государства уже принимают защитные меры. В США, где базируются многие ведущие компании в области ИИ, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его "барьером" для инноваций.
В Великобритании два года назад был создан Институт безопасности ИИ – финансируемый государством исследовательский орган – для лучшего понимания рисков, связанных с передовым ИИ.

Это всё паника?
Нил Лоуренс – профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.
"Понятие общего искусственного интеллекта столь же абсурдно, как и понятие "искусственного общего транспортного средства", – утверждает он.
"Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий... Нет такого транспортного средства, которое могло бы делать всё это".
Для него разговоры об ОИИ – это отвлекающий манёвр.
"Технологии, которые мы [уже] создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять её делать то, что они хотят. Это абсолютно необыкновенно... и совершенно революционно".
"Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей".
Но есть сверхбогатые люди, у которых есть свои планы "страховки от апокалипсиса".
"Когда кто-то говорит, что он "покупает дом в Новой Зеландии", – это своего рода намёк, мол, "всё понятно, дальше можно не объяснять", – ранее говорил сооснователь LinkedIn Рид Хоффман.
То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость.
Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный "бункер". Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и занятие бункера. И, похоже, он не шутил.
Но одна из причин, по которым эта идея волнует некоторых в Кремниевой долине, заключается в том, что она считается предшественником чего-то ещё более продвинутого: искусственного сверхинтеллекта – технологии, превосходящей человеческий интеллект.
Ещё в 1958 году концепция "сингулярности" была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдёт человеческое понимание.
Марк Цукерберг, запечатлённый на фотографии со своей женой Присциллой, сказал, что подземное помещение в его поместье на Гавайях "похоже на небольшое убежище" / Фото Getty Images
Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности: будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определённой последовательности. Но они не "чувствуют", какими бы убедительными ни казались их ответы.
"Есть некоторые "хитрости", которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям", – говорит Бабак Ходжат.
Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.
"Это отличный маркетинговый ход, – говорит он. – Если ваша компания создаёт самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги".
Он добавляет: "Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок".
Такие фильмы, как "2001: Космическая одиссея", предупреждали об опасности разумных компьютеров / Фото Getty Images
Интеллект без сознания
В некотором смысле ИИ уже превзошёл человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую – решать сложные математические уравнения.
Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что её системы ИИ совершенствуются.
Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов, что намного больше, чем у искусственных аналогов.
Исследователи изучают мозг, пытаясь лучше понять сознание
Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.
"Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM [большой языковой модели] это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт, – говорит Ходжат. – LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают".
Это фундаментальная часть человеческого интеллекта, которую ещё предстоит воспроизвести в лаборатории.


