
1 листопада в Блетчлі-парку (Велика Британія) почав роботу перший у світі глобальний саміт з безпеки штучного інтелекту (Artificial Intelligence - далі AI). Його мета – вивчити ризики, пов’язані з технологією, що швидко розвивається, і дати поштовх міжнародному діалогу щодо її регулювання.

У саміті взяли участь світові політичні лідери, серед яких: віцепрезидент США Камала Гарріс, президент Європейської комісії Урсула фон дер Ляйєн, віцеміністр технологій Китаю У Чжаохуей і генеральний секретар ООН Антоніу Гутерреш, а також представники технологічних компаній, учені та некомерційні організації. Серед учасників – керівники найвідоміших у світі компаній, що займаються штучним інтелектом, у тому числі генеральний директор Google DeepMind Деміс Гассабіс і Сем Альтман, який заснував компанію OpenAI – розроблювача ChatGPT, представники компаній Alibaba та Tencent і звичайно ж мільярдер Ілон Маск.

Незважаючи на те, що минув майже рік з того часу, як OpenAI представила публіці ChatGPT – чат-бот зі штучним інтелектом, поки не існує всеосяжних глобальних правил, що стосуються безпеки ШІ. Уряди деяких країн звернули на це увагу та почали розробляти свої власні правила. Наприклад, Європейський Союз видав перший збірник законів, що регулюють використання AI.
У рамках саміту відбулася серія круглих столів, на яких обговорювалися загрози, пов’язані з майбутнім розвитком технологій AI. Наприклад, використання AI хакерами для DDos-атак або терористами для створення біологічної зброї та завдання збитків світу.
Експерти та регулювальні органі поки розходяться в думках щодо того, як розставляти пріоритети стосовно цих загроз: у довгоочікуваному Законі ЄС про штучний інтелект говориться про можливі порушення прав людини, таких як конфіденційність даних і стеження, а не про так звані екзистенційні ризики, які домінують у більшій частині порядку денного саміту.
Прем’єр-міністр Великої Британії Ріші Сунак бачить Велику Британію світовим лідером у сфері безпеки штучного інтелекту. Він планує створити глобальну консультативну раду, яка регулюватиме AI за зразком Міжурядової групи експертів зі зміни клімату (IPCC). Передбачається, що Британія буде відігравати роль посередника між трьома блоками великих держав світу – США, ЄС і Китаєм, і саме перший саміт з безпеки АІ закладе основу для майбутнього міжнародного діалогу.
Міністр торгівлі США Джина Раймондо заявила, що Сполучені Штати створять Інститут безпеки штучного інтелекту для оцінки відомих і можливих ризиків, пов’язаних з так званими «прикордонними» моделями штучного інтелекту. Вона сказала, що США установлять офіційне партнерство з Інститутом безпеки Об’єднаного Королівства. Дана ініціатива буде здійснюватися Національним інститутом стандартів і технологій (NIST) і очолить зусилля уряду США із забезпечення безпеки ШІ, особливо його провідних моделей.
Президент США Джо Байден напередодні заходу підписав указ про штучний інтелект, що вимагає від розроблювачів систем штучного інтелекту, які можуть являти загрозу для національної безпеки, економіки, суспільної охорони здоров’я та розвитку США, ділитися результатами випробувань щодо безпеки з урядом США, так само, як це прийняте в оборонному виробництві. Указ також пропонує агентствам установити стандарти для цих випробувань і усунути пов’язані з ними хімічні, біологічні, радіологічні, ядерні ризики та ризики кібербезпеки.
Ілон Маск заявив, що перший саміт з безпеки штучного інтелекту у Великій Британії має обговорити створення органа незалежної експертизи, який міг би контролювати компанії, що розробляють штучний інтелект. «Насправді необхідно, щоб існував незалежний експерт, який міг би спостерігати за тим, що роблять провідні компанії у сфері штучного інтелекту, і, принаймні, бити тривогу, якщо з’являться проблеми, – сказав підприємець-мільярдер журналістам у Блетчлі-парку. – Я не знаю, які правила обов’язково мають бути введені, але перш ніж приступати до нагляду, потрібно розуміти, як це зробити», – сказав Маск.
За результатами роботи саміту була опублікована декларація, підписана представниками 28 країн, включно зі США та Китаєм, а також Європейським Союзом, у якій викладено програму, спрямовану на виявлення ризиків, пов’язаних із AI, що викликають загальну стурбованість, формування наукової термінології для однозначного їх розуміння та розробку політики протидії їм. Програма одержала назву «Декларація Блетчлі» та є по суті відправною точкою глобального обговорення передбачуваної небезпеки ШІ. Декларація містить ключові завдання для розробки спільної угоди про відповідальність стосовно ризиків, а також подальшої міжнародної співпраці у сфері безпеки штучного інтелекту.
На найближчі 12 місяців визначено такі пріоритети міжнародної співпраці у сфері провідного AI:

Department for Science, Innovation and Technology