Роботы-убийцы уже здесь. Что же теперь? (Lock and Code, 7-й сезон, 7-я серия)

| 5 апреля 2026 г.
Иллюстрированный навесной замок установлен в микрофонную стойку, из которой исходят звуковые волны.

На этой неделе в подкасте «Lock and Code»…

Нам нужно поговорить об убийцах-роботах. Нет, не о «Терминаторе» и не о каком-нибудь сошедшем с ума роботе от Boston Dynamics. Нам нужно поговорить о технологической реальности, которая уже вполне существует.

В конце февраля компания Anthropic, занимающаяся разработкой систем искусственного интеллекта, сделала заявление, которое, возможно, удивило тех, кто знаком с ней только по ее полезному чат-боту Claude: компания не позволит правительству использовать свою технологию для убийства людей без надлежащих мер безопасности.

Постой… что?

Несмотря на то, что среди большинства обычных людей компания Anthropic известна как разработчик совместного ИИ-помощника для программирования, написания текстов и поиска информации, она уже внедрила систему Claude в структурах правительства США для решения стратегических военных задач. По данным Anthropic, система Claude использовалась Министерством обороны США и другими ведомствами, отвечающими за национальную безопасность, для «задач, критически важных для выполнения миссий, таких как анализ разведывательной информации, моделирование и симуляция, оперативное планирование, кибероперации и многое другое».

Однако за кулисами правительство США запрашивало ещё больше приложений, объединив все свои запросы под общим и расплывчатым термином: «Любое законное использование». Компания Anthropic резко отреагировала на запрос правительства, обозначив два сценария использования, которые категорически исключались: массовая слежка за американцами и полностью автономное оружие — или, иными словами, создание независимых роботов-убийц.

Как указала компания Anthropic в своём заявлении:

«Системы искусственного интеллекта, находящиеся на стадии разработки, просто недостаточно надежны для использования в полностью автономном оружии. Мы не будем сознательно поставлять продукт, который подвергает опасности американских военнослужащих и гражданское население. Мы предложили напрямую сотрудничать с Министерством обороны в области НИОКР с целью повышения надежности этих систем, но они не приняли это предложение. Кроме того, без надлежащего контроля нельзя полагаться на то, что полностью автономное оружие будет принимать те критические решения, которые ежедневно принимают наши высококвалифицированные профессиональные военнослужащие. Для его применения необходимы надлежащие меры безопасности, которых сегодня не существует».

Конечно, сегодня этих ограничителей, возможно, и нет, но существуют ли они вообще — и могут ли они вообще существовать?

Сегодня в подкасте «Lock and Code» с ведущим Дэвидом Руисом мы беседуем с Питером Асаро, председателем кампании «Stop Killer Robots», о том, что на самом деле представляет собой «убийственный робот», насколько мы близки к их внедрению и каковы некоторые скрытые последствия внедрения технологий, способных принимать решения с невероятной скоростью, в условиях, когда для деэскалации конфликта требуются время, пространство и человеческое суждение.

 «Такое массовое увеличение числа целей лишь ускоряет темпы и усиливает интенсивность разрушений в ходе военных действий, при этом не всегда давая какое-либо военное или политическое преимущество».

Настройтесь сегодня, чтобы прослушать полную версию разговора.

Показать примечания и титры:

Вступительная музыка: «Spellbound» Кевина Маклеода (incompetech.com)
Лицензия Creative Commons: Attribution 4.0 License
http://creativecommons.org/licenses/by/4.0/
Завершающая музыка: «Good God» Wowa (unminus.com)


Слушайте внимательно —Malwarebytes просто говорит о кибербезопасности, мы ее обеспечиваем.

Защитите себя от онлайн-атак, угрожающих вашей личности, файлам, системе и финансовому благополучию, с помощью нашегоэксклюзивного предложения Malwarebytes Premium для слушателей Lock and Code.

Об авторе