фото: © SAFE
В то время как технологические миллиардеры, включая Марка Цукерберга и Илона Маска, активно инвестируют в строительство подземных убежищ и «страховок на случай апокалипсиса», многие эксперты задаются вопросом, готовится ли элита к некоему катастрофическому событию, о котором широкой публике неизвестно, сообщает BBC. Повышенный интерес к бункерам совпал со стремительным развитием искусственного интеллекта (ИИ), который, по мнению некоторых руководителей индустрии, может стать «экзистенциальной угрозой».
Сообщается, что основатель Facebook Марк Цукерберг начал строительство обширного поместья Koolau Ranch площадью 1400 акров на гавайском острове Кауаи еще в 2014 году. По данным журнала Wired, в этом комплексе планируется разместить подземное убежище, оснащенное собственными источниками энергии и продовольствия. При этом плотникам и электрикам, работающим на объекте, запрещено обсуждать проект в соответствии с договором о неразглашении. Обзор с близлежащей дороги закрывает стена высотой в шесть футов.
В прошлом году, когда Цукерберга напрямую спросили о строительстве бункера на случай конца света, он категорически ответил «нет». Он пояснил, что подземное пространство площадью около 5000 квадратных футов «похоже на небольшое убежище, на подвал». Однако это не остановило спекуляций, как и его решение приобрести одиннадцать объектов недвижимости в районе Кресент-Парк в Пало-Альто, Калифорния, где, по всей видимости, было добавлено подземное пространство площадью 7000 квадратных футов.
Хотя в разрешениях на строительство, по данным New York Times, упоминаются подвалы, некоторые соседи называют это место бункером или «летучей кладовой миллиардера».
Спекуляции также касаются других лидеров технологической отрасли, которые, судя по всему, активно скупают земельные участки с готовыми подземными пространствами для создания роскошных бункеров стоимостью в несколько миллионов фунтов стерлингов. Рид Хоффман, соучредитель LinkedIn, публично говорил о наличии у него «страховки на случай апокалипсиса». Ранее он утверждал, что такой страховкой обладает примерно половина сверхбогатых людей, при этом Новая Зеландия является популярным местом для покупки жилья. Это вызывает вопрос: действительно ли они готовятся к войне, последствиям изменения климата или к какому-то другому катастрофическому событию, о котором остальной мир не знает?
За последние несколько лет развитие искусственного интеллекта (ИИ) пополнило список потенциальных экзистенциальных угроз. Скорость этого прогресса вызывает глубокую обеспокоенность у многих. Сообщается, что среди них Илья Суцкевер, главный научный сотрудник и соучредитель Open AI. К середине 2023 года компания, выпустившая чат-бот ChatGPT, который теперь используется сотнями миллионов людей по всему миру, активно работала над обновлениями. Однако к тому лету господин Суцкевер всё больше убеждался, что специалисты по информатике находятся на грани разработки общего искусственного интеллекта (ОИИ) — момента, когда машины сравняются с человеческим интеллектом, как утверждается в книге журналистки Карен Хао. На одной из встреч господин Суцкевер предложил коллегам вырыть подземное убежище для ведущих учёных компании, прежде чем столь мощная технология будет представлена миру, сообщает госпожа Хао.
«Мы обязательно построим бункер, прежде чем выпустим AGI», — заявил он, как сообщается, хотя неясно, кого именно он имел в виду под словом «мы».
Это проливает свет на любопытный факт: многие ведущие специалисты в области компьютерных наук и руководители технологических компаний, которые усердно работают над разработкой высокоинтеллектуальной формы ИИ, также, по-видимому, глубоко опасаются того, что она однажды сможет совершить.
Лидеры технологических компаний заявляют, что появление ОИИ неизбежно. Глава OpenAI Сэм Альтман в декабре 2024 года заявил, что ОИИ появится «раньше, чем думает большинство людей в мире». Сэр Демис Хассабис, соучредитель DeepMind, прогнозирует его появление в ближайшие пять-десять лет, а основатель Anthropic Дарио Амодеи написал в прошлом году, что его любимый термин — «мощный ИИ» — может появиться уже в 2026 году.
Однако другие эксперты сомневаются. Венди Холл, профессор компьютерных наук Саутгемптонского университета, считает, что «научное сообщество говорит, что технология искусственного интеллекта потрясающая, но она далека от человеческого интеллекта». С ней согласен Бабак Ходжат, главный технический директор технологической компании Cognizant, отмечая, что для этого сначала потребуется совершить ряд «фундаментальных прорывов».
Идея ИСИ, или искусственного суперинтеллекта — технологии, превосходящей человеческий интеллект, — является еще более продвинутой концепцией. В 1958 году Джону фон Нейману посмертно приписали концепцию «сингулярности», обозначающую момент, когда компьютерный интеллект выходит за рамки человеческого понимания. В недавней книге «Генезис», написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая станет настолько эффективной в принятии решений и руководстве, что люди в конечном итоге полностью передадут ей контроль.
Сторонники ИИ и ОИИ практически евангельски превозносят их преимущества, утверждая, что это позволит найти новые лекарства от смертельных болезней, решить проблему изменения климата и создать неисчерпаемый источник чистой энергии. Илон Маск даже заявил, что сверхразумный ИИ может открыть эру «всеобщего высокого дохода». Он поддержал идею о том, что ИИ станет настолько дешевым и распространенным, что практически каждый захочет иметь «собственных персональных R2-D2 и C-3PO» (отсылка к дроидам из «Звездных войн»).
«У всех будет лучшее медицинское обслуживание, еда, домашний транспорт и всё остальное. Устойчивое изобилие», — с энтузиазмом заявил он.
Конечно, есть и пугающая сторона. Могут ли террористы захватить технологию и использовать её как мощное оружие, или же она решит, что человечество — причина мировых проблем, и уничтожит нас?
«Если оно умнее вас, то нам придется его сдерживать, — предупредил Тим Бернерс Ли, создатель Всемирной паутины, в интервью BBC в начале этого месяца. — Мы должны иметь возможность отключить его».
Правительства принимают защитные меры. В США президент Байден в 2023 году издал указ, обязывающий некоторые компании предоставлять Федеральному правительству результаты испытаний на безопасность, хотя часть этого указа была отменена президентом Трампом. В Великобритании два года назад был создан Институт безопасности ИИ — финансируемая правительством исследовательская организация, призванная лучше понять риски, связанные с передовым ИИ.
«Сказать, что вы „покупаете дом в Новой Зеландии“, — это просто подмигивание, ничего больше», — заявил ранее Рид Хоффман. То же самое, по-видимому, относится и к бункерам.
Но есть один чисто человеческий недостаток: бывший телохранитель одного миллиардера, у которого был свой «бункер», рассказал, что первоочередной задачей его службы безопасности, если такое действительно произойдёт, будет устранение этого босса и само проникновение в бункер.
Профессор машинного обучения в Кембриджском университете Нил Лоуренс считает весь этот спор абсурдом.
«Идея об искусственном интеллекте общего назначения так же абсурдна, как и идея об «искусственном транспортном средстве общего назначения», — утверждает он. — Выбор подходящего транспортного средства зависит от ситуации. Я летал в Кению на Airbus A350, каждый день добираюсь до университета на машине, хожу пешком в кафе… Нет такого транспортного средства, которое могло бы всё это сделать».
Для него разговоры об ОИИ — это отвлечение.
«Технология, которую мы [уже] создали, впервые позволяет обычным людям напрямую общаться с машиной и потенциально заставлять её делать то, что им нужно. Это совершенно невероятно… и совершенно преобразующе, — добавляет он. — Главное беспокойство заключается в том, что мы настолько увлеклись историями крупных технологических гигантов об ИИ, что упускаем из виду способы, которыми нам нужно улучшить жизнь людей».
Современные инструменты ИИ, такие как большие языковые модели (LLM), обучены на массивах данных и хорошо выявляют закономерности, но они не «чувствуют», какими бы убедительными ни казались их ответы.
«Есть несколько «хитрых» способов заставить большую языковую модель (основу чат-ботов на основе ИИ) действовать так, как будто у нее есть память и она обучается, но они неудовлетворительны и значительно уступают людям», — говорит господин Ходжат.
У LLM также отсутствует метакогнитивное мышление — они не совсем точно знают, что знают. Похоже, у людей есть интроспективная способность, иногда называемая сознанием, которая позволяет им знать то, что они знают. Это фундаментальная часть человеческого интеллекта, которую еще предстоит воспроизвести в лабораторных условиях. Винс Линч, генеральный директор калифорнийской компании IV.AI, также опасается преувеличенных заявлений об ИИ.
«Это отличный маркетинг, — говорит он. — Если вы компания, которая создает самую умную вещь, которая когда-либо существовала, люди захотят дать вам денег». Он добавляет: «Это не вопрос двух лет. Это требует огромных вычислений, огромного человеческого творчества, множества проб и ошибок».
Источник: BBC
#МаркЦукерберг #ИскусственныйИнтеллект #Бункеры #ТехнологическиеМиллиардеры #ОИИ
Пікірлер
Комментарий қалдыру үшін порталға тіркеліңіз немесе кіріңіз
Авторизация через