Выступление премьер-министра на Саммите по безопасности ИИ: 2 ноября 2023 г. — Декларации Блетчли Bletchley Declaration

Речь премьер-министра на саммите по безопасности искусственного интеллекта в Блетчли-парке 2 ноября 2023 года.

Ведущие страны в области ИИ достигли первого в мире соглашения в Блетчли-Парке, устанавливающего общее понимание возможностей и рисков, связанных с передовым ИИ.

Британские суперкомпьютеры будут увеличены в 30 раз за счет нового компьютера в Кембридже и площадки в Бристоле.

Речь

Выступление премьер-министра на Саммите по безопасности ИИ: 2 ноября 2023 г.

Речь премьер-министра на саммите по безопасности искусственного интеллекта в Блетчли-парке 2 ноября 2023 года.

Достопочтенный Риши Сунак, член парламента

Именно здесь, в Блетчли-парке, взломщики кодов, включая британского гения Алана Тьюринга, взломали шифр «Энигмы»… 

…и где мы использовали первый в мире электронный компьютер.

Прорывы, изменившие возможности человечества.

Так что нет более подходящего места для объединения мира…

…чтобы воспользоваться возможностями величайшего прорыва нашего времени…. 

…и при этом давая людям уверенность в том, что мы обеспечим их безопасность. 

Я искренне верю, что в нашем обозримом будущем нет ничего более преобразующего для нашей экономики, нашего общества и всей нашей жизни…

….чем развитие таких технологий, как искусственный интеллект.

Но, как и каждая волна новых технологий, она также приносит новые страхи и новые опасности. 

Поэтому, как бы сложно это ни было…

…это правильное и ответственное долгосрочное решение для лидеров, направленное на решение этих проблем.

Вот почему я созвал этот Саммит….

…и я хочу воздать должное всем, кто присоединился к нам, и тому духу, с которым они это сделали. 

Впервые мы собрали вместе руководителей ведущих мировых компаний, занимающихся искусственным интеллектом….

…со странами, наиболее продвинутыми в его использовании….

…и представители научных кругов и гражданского общества. 

И хотя это было только начало разговора,

Я верю, что достижения этого саммита склонят чашу весов в пользу человечества. 

Потому что они показывают, что у нас есть политическая воля и способность контролировать эту технологию и обеспечивать ее преимущества в долгосрочной перспективе.

И мы добились этого четырьмя конкретными способами. 

До этой недели в мире даже не было общего понимания рисков. 

Поэтому нашим первым шагом было проведение открытого и инклюзивного разговора для поиска общего понимания.

Мы проанализировали последние доступные данные обо всем: от социального вреда, такого как предвзятость и дезинформация…

…риску злоупотреблений со стороны злоумышленников…

…вплоть до самых экстремальных рисков даже полной потери контроля над ИИ.

А вчера мы договорились и опубликовали первое в истории международное заявление о природе всех этих рисков.

Его подписали все страны, представленные на этом саммите, охватывающие все континенты земного шара… 

…и включая США и Китай.

Некоторые говорили, что нам не следует даже приглашать Китай…

…другие, с которыми мы никогда не сможем договориться. 

Оба были неправы.

Серьезная стратегия обеспечения безопасности ИИ должна начинаться с привлечения всех ведущих мировых держав в области ИИ. 

И все они подписали коммюнике в Блетчли-Парке. 

Во-вторых, мы должны обеспечить, чтобы наше общее понимание шло в ногу с быстрым внедрением и развитием ИИ. 

Вот почему на прошлой неделе я предложил создать по-настоящему глобальную экспертную группу для публикации отчета о состоянии науки в области искусственного интеллекта.

Сегодня на этом саммите все международное сообщество с этим согласилось. 

Эта идея вдохновлена ​​тем, как была создана Межправительственная группа экспертов по изменению климата для достижения международного научного консенсуса. 

При поддержке Генерального секретаря ООН…

…каждая страна взяла на себя обязательство назначить экспертов.

И я рад сообщить, что лауреат премии Тьюринга и «крестный отец искусственного интеллекта» Йошуа Бенджио…

…согласился возглавить подготовку вступительного отчета.  

В-третьих, до сих пор единственные люди, проверяющие безопасность новых моделей ИИ…

…были те самые компании, которые его разрабатывают. 

Это должно измениться.

Итак, опираясь на Хиросимский процесс «Большой семерки» и Глобальное партнерство по искусственному интеллекту…

…правительства-единомышленники и компании, занимающиеся искусственным интеллектом, сегодня достигли эпохального соглашения.

Мы будем вместе работать над тестированием безопасности новых моделей ИИ перед их выпуском. 

Это партнерство основано на ряде принципов, определяющих наши общие обязанности.

И это стало возможным благодаря решению, которое я принял – вместе с вице-президентом Камалой Харрис…

….британскому и американскому правительствам создать ведущие в мире институты безопасности ИИ…

…с возможностью государственного сектора тестировать самые передовые модели. 

В этом духе я очень приветствую согласие компаний, присутствующих здесь сегодня, расширить привилегированный доступ Великобритании к их моделям.

Опираясь на опыт некоторых из самых уважаемых и знающих экспертов в области искусственного интеллекта в мире…

…наш Институт безопасности будет работать над тем, чтобы своевременно построить процесс оценки, чтобы оценить модели следующего поколения до их внедрения в следующем году. 

Наконец, реализация поставленной перед нами задачи по обеспечению безопасности ИИ — это не работа одного саммита. 

Великобритания гордится тем, что объединила мир и провела первый саммит.

Но это требует постоянного международного процесса…

…чтобы оставаться на шаг впереди науки…

…и довести до конца все сотрудничество, которое мы начали сегодня.

Итак, мы договорились, что Блетчли-Парк должен стать первым из серии международных саммитов по безопасности…

…и Корея, и Франция согласились провести следующие саммиты в следующем году. 

Покойный сэр Стивен Хокинг однажды сказал, что: 

«ИИ, вероятно, будет лучшим или худшим, что могло случиться с человечеством».

Если мы сможем сохранить сотрудничество, которое мы развивали в течение последних двух дней…

…Я глубоко верю, что мы сможем сделать это как можно лучше. 

Потому что безопасное использование этой технологии может затмить все, что мы когда-либо знали.

И если в истории окажется, что именно сегодня мы начали захватывать этот приз…

…тогда мы напишем новую главу, достойную своего места в истории Блетчли-Парка…

…и что еще более важно, мы оставили в наследство необыкновенное наследие надежды и возможностей для наших детей и будущих поколений.

Опубликовано 2 ноября 2023 г.

Обсуждение закрыто.

Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (1 оценок, среднее: 5,00 из 5)
Загрузка...