Министерство обороны Великобритании понимает искусственный интеллект (ИИ) как семейство технологий общего назначения, любая из которых может позволить машинам выполнять задачи, обычно требующие человеческого или биологического интеллекта, особенно когда машины учатся на основе данных, как выполнять эти задачи.
Амбициозный, безопасный, ответственный: наш подход к предоставлению возможностей ИИ в сфере обороны Великобритании 2022-2023
Опубликовано 15 июня 2022 г.
Это заявление о политике следует читать вместе со Стратегией оборонного ИИ до 2022 года.
Управляющее резюме
Определение искусственного интеллекта
Министерство обороны понимает искусственный интеллект (ИИ) как семейство технологий общего назначения, любая из которых может позволить машинам выполнять задачи, обычно требующие человеческого или биологического интеллекта, особенно когда машины учатся на основе данных, как выполнять эти задачи.
Стратегия оборонного ИИ излагает наше видение стратегических возможностей и проблем, связанных с появлением ИИ как преобразующей и революционной новой технологии. Осознание преимуществ ИИ и противодействие угрозам и проблемам, связанным с использованием ИИ другими, является одной из важнейших стратегических задач нашего времени.
ИИ позволит нашим людям эффективно использовать ранее невообразимые объемы данных. Это улучшит принятие решений и достижение оперативного эффекта. Существуют веские доводы в пользу разработки и использования системы ИИ там, где она будет явно полезной или приведет к более этичному результату. В эпоху растущей глобальной конкуренции и ограниченности ресурсов крайне важно, чтобы мы добились максимальной эффективности и действенности, используя ИИ во всем спектре оборонной деятельности.
Мы также признаем, что природа ИИ порождает риски и опасения по поводу возможного воздействия на людей. Они могут быть особенно острыми в контексте обороны. Если мы не решим их, мы рискуем потерять общественное согласие, увидев, что наша способность действовать подорвана, и усугубить безответственное поведение других, не говоря уже о подрыве нашей способности обеспечивать оборонный потенциал.
Мы считаем, что широкая «системная» перспектива обеспечит систематическое и эффективное решение проблем, связанных с ИИ. Сосредоточив внимание на результатах, достигнутых с помощью четких рамок и процессов, и руководствуясь нашей убежденностью в том, что ИИ может быть мощной силой добра, мы обеспечим:
- амбициозны с точки зрения инструментов и операционных эффектов, которые мы стремимся обеспечить
- разрешать, а не ограничивать предоставление этих инструментов и эффектов
- предоставлять и использовать возможности с поддержкой ИИ безопасным и ответственным образом
В Министерстве обороны это будет достигнуто за счет ряда частично совпадающих подходов. Мы будем:
- установить четкие организационные намерения и цели по внедрению и использованию ИИ, подкрепленные определенными ролями и обязанностями, как указано в Стратегии оборонного ИИ;
- продолжать применять наши надежные режимы безопасности и регулирования;
- всегда соблюдать наши национальные и международные юридические обязательства; а также
- установить четкую структуру и процессы для обеспечения этического принятия технологии.
Это позитивный план эффективного, инновационного и ответственного внедрения ИИ. По сути, лучший способ разработать системы искусственного интеллекта для обороны, отвечающие нашим оперативным потребностям и отражающие ценности тех, кому мы служим, — это: установить амбициозное направление; обеспечивать ясность и определенность наших подходов; и предоставить уверенность коллегам в обороне, промышленности и обществе в целом, тем самым демонстрируя надежность.
Искусственный интеллект в сфере обороны Великобритании 2022-2023
Амбициозная реализация возможностей
Мы стремимся всесторонне использовать ИИ, ускоряя ввод в эксплуатацию «лучших в своем классе» возможностей с поддержкой ИИ, чтобы сделать все части обороны значительно более эффективными и действенными. Для этого мы должны гарантировать, что мы всегда амбициозны в том, как мы внедряем ИИ в возможности обороны, где ИИ является подходящим инструментом для внедрения. Мы не будем внедрять ИИ ради него самого; это не «конец» сам по себе.
Мы рассчитываем, что наш подход позволит, а не ограничит внедрение и использование решений и возможностей на основе ИИ в обороне. Мы обеспечим команды, разрабатывающие и внедряющие концепции, технологии и решения, для изучения амбициозных идей и вариантов использования. Мы предоставим им четкие рамки для поддержки раннего выявления и устранения рисков безопасности, правовых и этических рисков; это придаст им уверенности в том, что они смогут использовать весь потенциал технологии, соблюдая при этом политику и другие важные требования. Мы будем поощрять их к выявлению более широких факторов, препятствующих их прогрессу, таких как политика или процесс, в надежде на то, что соответствующие решения будут найдены и быстро реализованы.
Мы хотим использовать творческий подход и инновации, присущие оборонному и частному секторам. Это включает в себя необходимые подходы к решению проблем, чтобы воплотить эти амбициозные варианты использования в жизнь надлежащим образом. Поскольку риски и проблемы могут существовать в отношении любой части «системы систем» на протяжении всего жизненного цикла возможности, мы ясно понимаем, что решения могут быть найдены аналогичным образом для всей «системы систем» и жизненного цикла.
Другими словами, проблема может заключаться не в том, «для чего» предназначена возможность, а в том, «как» она это делает и как мы обеспечиваем эффективное и надлежащее использование ИИ внутри нее. Мы позаботимся о том, чтобы на нашем предприятии были приняты подходящие методы для «разработки» проблем, и что мы тщательно тестируем решения с поддержкой ИИ. Дополнительную информацию можно найти в Стратегии оборонного ИИ.
В качестве универсальной технологии ИИ называют «новым электричеством». [сноска 1] Очевидно, что существуют важные различия. Один полезный момент для сравнения заключается в том, что первоначальное планирование создания крупной системы (в конечном итоге работающей от электричества) будет сосредоточено на желаемом результате и уровне амбиций. Обсуждение может касаться в основном видения и готовности раздвинуть границы, хотя планировщики также рассматривают возможные маршруты доставки и, вероятно, знают о технических ограничениях.
Первоначальное планирование обычно не зависело от обсуждения того, означает ли вероятное включение электричества возможность безопасной и ответственной доставки системы. Эти проблемы будут решаться систематически путем проектирования, производства, использования в эксплуатации и утилизации, даже если это потребует изменений в операционных подходах или дополнительных исследований и разработок для предоставления технических решений.
Это похоже на то, как мы думаем об ИИ. Мы исходим из убеждения, что ИИ — это мощный инструмент, и что мы должны быть уверены в своем видении возможностей ИИ. Таким образом, безопасные и ответственные результаты являются функцией общеоборонных процессов, а не заранее установленных ограничений, которые рискуют оказаться произвольными, ограничивающими и привычно устаревшими, учитывая скорость технического прогресса.
Наш подход и оружие с искусственным интеллектом
Мы сосредоточимся на результатах, изучая амбициозные варианты, а не отфильтровывая идеи или концепции, пока они еще находятся на чертежной доске. Мы не исключаем включение ИИ в системы вооружения. На практике, однако, некоторые концепции и возможности могут оказаться невозможными для безопасного и ответственного применения, и мы очень четко понимаем, что должно быть соответствующее контексту участие человека в оружии, которое идентифицирует, выбирает и атакует цели. Это может означать некоторую форму человеческого наблюдения в режиме реального времени или контроль, осуществляемый посредством настройки рабочих параметров системы.
Мы считаем, что искусственный интеллект может существенно повысить производительность наших сотрудников и значительно расширить наши возможности. Однако, учитывая опасения по поводу этики и рисков делегирования определенных решений ИИ, также важно заявить, что мы не считаем, что «более автономный» обязательно означает «более способный». Мы считаем, что взаимодействие человека и машины [сноска 2] дает наилучшие результаты с точки зрения общей эффективности, оптимального использования ресурсов, практичности интеграции и легкости, с которой мы можем решать возникающие проблемы; поэтому это наш подход к внедрению ИИ по умолчанию.
Надлежащая степень «автономии» системы и тип «человеческого контроля» должны тщательно рассматриваться в каждом конкретном случае.
Взгляд на системы с поддержкой ИИ с технологической точки зрения: точная степень автономии с поддержкой ИИ, необходимая для любой конкретной возможности или компонента, будет зависеть от конкретного характера системы или концепции ее использования. Операционные результаты обычно зависят от скорости и точности с точки зрения оценки, а затем действий. Они могут быть включены в очень высокой степени без необходимости делегирования проблемных уровней свободы действий или суждений ИИ.
Глядя на те же системы с точки зрения людей: мы можем осуществлять удовлетворительный и строгий человеческий контроль над системами с поддержкой ИИ, не всегда требуя какой-либо формы человеческого наблюдения в реальном времени. Действительно, это может действовать как ненужное и неуместное ограничение на эксплуатационные характеристики. Например, для защиты морской платформы от гиперзвукового оружия могут понадобиться оборонительные системы, способные обнаруживать входящие угрозы и открывать огонь быстрее, чем человек может среагировать.
Еще один важный момент заключается в том, что все новое оружие, средства и методы ведения войны подлежат тщательной проверке на соответствие международному гуманитарному праву и другим применимым нормам международного права. Определения в отношении необходимого масштаба и применения соответствующего контексту участия человека будут проводиться аналогичным образом систематически. Мы также корректируем наши операционные процедуры, чтобы гарантировать, что мы остаемся в рамках действующего законодательства.
Этот подход отражен в нашей политике в отношении международных дебатов по «смертоносным автономным системам оружия», более подробно изложенной в Приложении C.
Ключевые проблемы внедрения искусственного интеллекта в обороне
Использование ИИ в оборонном контексте поднимает ряд взаимосвязанных вопросов и задач, которые необходимо учитывать командам разработчиков и пользователям. Это включает:
- Алгоритмическая предвзятость: риск того, что необъективные наборы данных, используемые для обучения систем ИИ, могут привести к дискриминационным результатам и несоразмерному вреду для определенных групп пользователей;
- Ответственность и подотчетность: необходимость обеспечения того, чтобы делегирование задач или решений системам ИИ не приводило к «разрыву ответственности» между системами, которые принимают решения или дают рекомендации, и ответственными за них людьми-командирами;
- Непредсказуемость: риск того, что некоторые системы ИИ могут вести себя непредсказуемо, особенно в новых или сложных условиях, или по мере того, как они учатся и адаптируются с течением времени;
- Непреднамеренные последствия и стимулы: потенциал систем с поддержкой ИИ оказывать непреднамеренные побочные эффекты на поведение человека за счет включения определенных стимулов или влияния на другие системы сверх их предполагаемого эффекта;
- Последствия для людей: необходимость иначе думать о том, что ожидается от людей, и о влиянии ИИ на людей, поскольку системы с поддержкой ИИ создают возможности для автоматизации «скучных, грязных или опасных» задач; а также;
- Человеческий контроль: при использовании систем с поддержкой ИИ в целях обороны необходимо понимать соответствующую форму участия человека, необходимую для любого данного приложения или контекста.
Эти проблемы могут возникать по отдельности или в сочетании. Некоторые создают проблемы с безопасностью, требуя от нас убедиться, что наш ИИ не причинит непреднамеренного вреда или опасности при его использовании. Некоторые из них вызывают этические проблемы, требуя от нас убедиться, что использование нами технологии соответствует нашим ценностям и ценностям общества, которое мы представляем. Некоторые из них являются важными элементами обеспечения того, чтобы конкретная возможность соответствовала нашим внутренним и международным правовым обязательствам (например, в отношении защиты данных, конфиденциальности или международного гуманитарного права).
При правильном решении этих вопросов мы должны поддерживать доверие и добрую волю наших основных заинтересованных сторон, включая наш обслуживающий персонал, союзников и партнеров в частном секторе. Без этого мы рискуем замедлить внедрение инноваций, упустить важные возможности для сотрудничества и сократить общественное согласие на использование этих технологий.
Применяя безопасный и ответственный подход к ИИ, у нас также есть возможность подать положительный пример другим, поощряя безопасное и ответственное использование ИИ во всем мире.
Для достижения этих результатов мы создаем четкую структуру, которая обеспечит поддержку и ясность для команд в обороне и за ее пределами, которые разрабатывают и эксплуатируют наши системы с поддержкой ИИ.
Безопасное использование ИИ
Ряд ключевых проблем, связанных с внедрением ИИ для обороны, создает особые проблемы с безопасностью.
Непредсказуемость некоторых систем ИИ, особенно при их применении в новых и сложных условиях, увеличивает риск возникновения непредвиденных проблем при их использовании. Относительные трудности с интерпретацией того, как некоторые формы систем ИИ обучаются и принимают решения, создают новые проблемы для тестирования, оценки и сертификации таких систем. Кроме того, высокое потенциальное влияние систем с поддержкой ИИ для обороны повышает ставки потенциальных побочных эффектов или непредвиденных последствий, особенно когда они могут причинить вред тем, кто с ними взаимодействует.
В целом, это не новая задача для Департамента. Защита связана законодательством Великобритании и имеет надежный режим соблюдения. Оборонная деятельность также включает в себя те, которые опасны по своей природе и требуют дополнительного управления рисками, выходящего за рамки наших уставных обязательств.
В тех случаях, когда у Министерства обороны есть определенные отступления, исключения или отказ от применения законодательства и правил Великобритании, политика и практика Министерства заключаются в том, чтобы поддерживать механизмы, которые, насколько это практически возможно, дают результаты, которые, насколько это практически возможно, по крайней мере не хуже тех, которые требуются законодательством Великобритании. Это отражено в документе «Здоровье, безопасность и охрана окружающей среды» (HS&EP) in Defense – Заявление о политике министра обороны.
Таким образом, строгое соблюдение правил безопасности необходимо для использования Defence любой новой технологии.
Управление безопасности обороны (DSA) вносит свой вклад в оборонный потенциал, репутацию и эффективность путем разработки и обеспечения соблюдения правил обороны в отношении здоровья, безопасности и защиты окружающей среды, а также поддерживает министерство обороны, предоставляя независимую, основанную на фактических данных гарантию.
DSA проводит сканирование горизонта в отношении развития возможностей ИИ. DSA будет продолжать устанавливать оборонные правила и проводить правоприменительную деятельность в рамках эксплуатационных возможностей, а также будет изучать, как можно обеспечить возможности ИИ в будущем.
В рамках DSA Отдел расследования происшествий Министерства обороны (DAIB) предоставляет Министерству обороны возможность расследования авиационных происшествий и инцидентов, проводя беспристрастные и экспертные расследования безопасности без вины во всех областях, уделяя особое внимание выявлению и пониманию всех факторов аварии. Сюда могут входить несчастные случаи, связанные с возможностями ИИ.
Легальное использование ИИ
Деятельность защиты регулируется рядом законодательных положений, которые гарантируют, что наша работа осуществляется в соответствии с законом. Этот закон защищает основные свободы и права человека, в то же время предоставляя Министерству обороны полномочия, необходимые для обеспечения безопасности граждан в современном мире.
Защита всегда стремится соблюдать свои юридические обязательства по всему спектру деятельности, от трудового права до конфиденциальности и закупок, а также права вооруженных конфликтов, также известного как международное гуманитарное право (МГП). В компании действуют надежные методы и процессы, обеспечивающие соблюдение закона ее деятельностью и ее сотрудниками. Эти методы и процессы применяются и будут применяться к возможностям с поддержкой ИИ.
Развертывание возможностей ИИ в вооруженных конфликтах должно полностью соответствовать МГП, удовлетворяя четырем основным принципам различия, необходимости, гуманности и соразмерности. Мы совершенно ясно понимаем, что использование любой системы или оружия, которые не удовлетворяют этим основополагающим принципам, представляло бы собой нарушение международного права. [сноска 3]
Юридические проверки статьи 36 гарантируют, что командиры, военнослужащие, политики, британская общественность и наши союзники могут быть уверены в том, что британское оружие является законным. Дополнительный протокол 1 к Женевской конвенции требует «при изучении, разработке, приобретении или принятии на вооружение нового оружия, средств или метода ведения войны. . . определить, будет ли его использование при некоторых или всех обстоятельствах запрещено [Дополнительным протоколом I] или любой другой [применимой] нормой международного права».
Таким образом, как и в случае с любой новой и появляющейся технологией, Министерство обороны осознает необходимость быть в курсе любых юридических проблем, которые могут возникнуть в связи с использованием ИИ в обороне, будь то в качестве средства или метода ведения войны или в качестве «бэк-офиса». ‘ и имеет надежные процессы проверки.
Наша разработка и использование технологий искусственного интеллекта всегда будет осуществляться в соответствии с применимым британским и международным законодательством.
Этическое использование ИИ
MOD посвящен защите жителей Великобритании, территорий, ценностей и интересов дома и за рубежом. Мы должны соблюдать этику — и быть замеченными в этичности — при разработке и использовании ИИ для защиты ценностей Великобритании и сохранения доверия и поддержки наших граждан, ключевых заинтересованных сторон, союзников и партнеров. Это включает в себя признание потенциальных случаев, когда ИИ может быть важным инструментом, помогающим нам добиваться этических результатов, и когда не использовать ИИ может быть неэтично.
Поэтому мы разработали этические принципы использования ИИ в обороне (Приложение А), призванные направить наш общий подход к технологиям и системам с поддержкой ИИ во всем диапазоне возможных вариантов использования, от бэк-офиса до поддержки принятия решений и возможностей боевого пространства. [сноска 4] Они будут применяться к нашей разработке и использованию ИИ на протяжении всего их жизненного цикла, а также к системам с поддержкой ИИ: платформам, процессам или системам, частью которых является ИИ. Эти принципы будут:
- управлять нашим подходом к ключевым проблемам ИИ, в частности обеспечивая руководство ответственной разработкой, обучением и использованием (см. раздел «Внедрение»)
- составляют основу подхода Великобритании к созданию согласованных норм для ИИ в обороне на международном уровне, работая с партнерами и союзниками над формированием глобального развития ИИ в направлении свободы, открытости и демократии.
- предоставить характеристики для систем ИИ, которым, как ожидается, будут следовать команды Министерства обороны при разработке новых систем с поддержкой ИИ.
Изложение принципов является ключевым шагом на пути к обеспечению ответственного и безопасного подхода к технологии. Эффективное внедрение и развитие принципов потребуется для обеспечения того, чтобы наша разработка ИИ соответствовала нашим требованиям к безопасным и ответственным инновациям.
Партнерство и консультации
Для разработки этих Принципов Министерство обороны работало в партнерстве с Центром этики и инноваций в области данных (CDEI). CDEI, первый в мире в своем роде, возглавляет работу правительства Великобритании по созданию надежных инноваций с использованием данных и искусственного интеллекта. Под руководством консультативного органа, состоящего из всемирно признанных экспертов, Центр работает с партнерами из государственного сектора, промышленности и научных кругов в Великобритании и за рубежом, чтобы выявлять и устранять барьеры на пути к ответственным инновациям. Принципы MOD являются результатом более чем 18 месяцев консультаций с более чем 100 заинтересованными экспертами со всего мира. [сноска 5]
В рамках процесса консультаций Министерство обороны созвало Консультативную группу по этике ИИ, группу экспертов в области компьютерных наук, этики ИИ и военной этики. Эта группа гарантировала, что Министерство обороны извлекло пользу из знаний специалистов и задач, и сыграла решающую роль в поддержке разработки Принципов. Более подробная информация о его роли и текущем составе доступна в Приложении B.
Продолжая реализацию этих подходов, наша приверженность прозрачности и консультациям с промышленностью и союзниками сохранится. Мы продолжим работать с CDEI по мере развития этой области, чтобы убедиться, что наш текущий подход соответствует передовой практике ответственной работы. Мы также продолжим активно взаимодействовать с ведущими экспертами из академических кругов и отрасли, в том числе с Консультативной группой по этике.
Управление
Это заявление о политике следует рассматривать вместе со Стратегией обороны в области искусственного интеллекта до 2021 года, в которой содержится более подробная информация по широкому спектру вопросов и действий в области искусственного интеллекта, имеющих отношение к обороне.
В соответствии с моделью управления, изложенной в Стратегии:
- 2-й постоянный секретарь (2-й PUS) и заместитель начальника штаба обороны будут контролировать и управлять деятельностью, связанной с ИИ, в Министерстве обороны.
- 2-й PUS несет особую ответственность за политику в области искусственного интеллекта в Министерстве обороны, включая надзор за нашей этической базой и ответственность за принятие мер в рамках делегированной модели для обеспечения эффективной реализации.
- Постоянный секретарь (PUS) по-прежнему отвечает за здоровье, безопасность и защиту окружающей среды при поддержке главного операционного директора (COO) и директора по охране труда и охране окружающей среды.
- 2-й PUS (и другие высокопоставленные должностные лица по мере необходимости) будут поддерживаться (с точки зрения разработки политики) Отделом оборонного ИИ и автономии (DAU), входящим в состав оборонной науки и технологий (DST), и консультироваться со стороны Консультативной группы по этике ИИ. Научные и технические консультации будут предоставляться главным научным советником Министерства обороны (при поддержке DST и Лаборатории оборонных наук и технологий (Dstl)) и директором по информационным технологиям (при поддержке Defense Digital). Независимые технические консультации и обзор будут предоставлены Экспертным комитетом по оборонным наукам (DSEC).
- Ответственные за бюджет высшего уровня (TLB) и руководители агентств торговых фондов являются старшими ответственными за безопасность и несут ответственность за назначение ответственных в своей организации, которые управляют деятельностью, которая может быть опасной для жизни. В каждой организации TLB будет ответственный сотрудник, ответственный за реализацию этики ИИ.
Внедрение – построение оправданного доверия
Изложив в этом документе наш общий подход к амбициозному, безопасному и ответственному внедрению ИИ, эффективная реализация будет иметь решающее значение. Мы должны максимизировать выгоду, которую мы извлекаем из ИИ, а также демонстрировать надежность как с точки зрения широты нашего портфолио инструментов и возможностей с поддержкой ИИ, так и с точки зрения специфики отдельных вариантов использования. Эти две цели связаны. Обеспечение безопасного, надежного и ответственного использования ИИ не препятствует инновациям; это ключ к сотрудничеству и обеспечению того, чтобы системы обеспечивали нужные нам результаты.
Таким образом, наш подход будет таким:
- направленность вовне: мы будем прозрачными, будем последовательно взаимодействовать и принимать вызовы со стороны промышленности, научных кругов, гражданского общества, международных партнеров и союзников;
- применяется на протяжении всего жизненного цикла системы ИИ: группы защиты смогут сформулировать, как безопасный и ответственный подход соблюдается на протяжении всего жизненного цикла системы ИИ, охватывающего все линии развития защиты;
- зависит от контекста: широкий спектр потенциальных вариантов использования ИИ в обороне означает, что применение подходов к политике не может быть единообразным или зависящим от технологии, а должно учитывать особые требования каждого проекта.
Приложение A: Этические принципы использования ИИ в обороне
Преамбула: Наше намерение в отношении этического использования ИИ в обороне
Министерство обороны стремится ответственно разрабатывать и развертывать системы с поддержкой ИИ таким образом, чтобы укреплять доверие и консенсус, устанавливая международные стандарты этического использования ИИ для обороны. Министерство обороны будет разрабатывать и развертывать системы с поддержкой ИИ для целей, которые явно выгодны: обеспечение оперативных улучшений, поддержка цели обороны и защита прав человека и демократических ценностей.
Существующие обязательства министерства обороны в соответствии с законодательством Великобритании и международным правом, в том числе, в соответствующих случаях, международным гуманитарным правом (МГП) и международным правом в области прав человека, служат основой для разработки, развертывания и эксплуатации систем с искусственным интеллектом. Эти этические принципы не влияют на существующие юридические обязательства и не заменяют их. Вместо этого они устанавливают этические рамки, которые будут определять подход Министерства обороны к внедрению ИИ в соответствии со строгими существующими кодексами поведения и правилами.
Эти принципы применимы ко всему спектру вариантов использования ИИ в обороне, от боевых действий до бэк-офиса, а также на протяжении всего жизненного цикла этих систем.
Первый принцип: человекоцентричность
Воздействие систем с искусственным интеллектом на людей необходимо оценивать и учитывать, учитывая весь спектр как положительных, так и отрицательных эффектов на протяжении всего жизненного цикла системы.
Независимо от того, являются ли они персоналом Министерства обороны США, гражданскими лицами или объектами военных действий, к людям, взаимодействующим с системами с поддержкой ИИ для обороны или затронутым ими, следует относиться с уважением. Это означает оценку и тщательный анализ воздействия систем с искусственным интеллектом на людей, полный учет человеческого разнообразия и обеспечение как можно более положительного воздействия. Эти последствия должны отдавать приоритет человеческой жизни и благополучию, а также более широким заботам человечества, таким как воздействие на окружающую среду, принимая во внимание военную необходимость. Это относится ко всем видам использования систем с поддержкой ИИ, от бэк-офиса до поля боя.
Выбор в пользу разработки и развертывания систем ИИ является этическим, и его следует принимать с учетом последствий для человека. Использование определенных систем, в которых негативные последствия для человека перевешивают преимущества, может быть неэтичным. И наоборот, могут быть веские этические аргументы в пользу разработки и использования системы ИИ, если она будет явно полезной или приведет к более этичному результату.
Второй принцип: Ответственность
Ответственность человека за системы с поддержкой ИИ должна быть четко установлена, обеспечивая подотчетность за их результаты, с четко определенными средствами, с помощью которых человек осуществляет контроль на протяжении всего их жизненного цикла.
Повышенная скорость, сложность и автоматизация систем с поддержкой ИИ могут усложнить наше понимание ранее существовавших концепций человеческого контроля, ответственности и подотчетности. Это может происходить за счет сортировки и фильтрации информации, представляемой лицам, принимающим решения, автоматизации процессов, ранее управляемых человеком, или процессов, с помощью которых системы с поддержкой ИИ обучаются и развиваются после их первоначального развертывания. Тем не менее, как уникальные моральные агенты, люди всегда должны нести ответственность за этичное использование ИИ в обороне.
Ответственность человека за использование систем с искусственным интеллектом в обороне должна подкрепляться четким и последовательным определением средств, с помощью которых осуществляется человеческий контроль, а также характера и ограничений этого контроля. В то время как уровень человеческого контроля будет варьироваться в зависимости от контекста и возможностей каждой системы с поддержкой ИИ, способность осуществлять человеческое суждение об их результатах имеет важное значение.
Независимо от варианта использования, ответственность за каждый элемент системы с поддержкой ИИ и определение ответственности за риски должны быть четко определены от разработки до развертывания, включая повторное развертывание в новых контекстах, до вывода из эксплуатации. Сюда входят случаи, когда системы представляют собой сложные сочетания компонентов ИИ и компонентов, не связанных с ИИ, от нескольких разных поставщиков. Таким образом, определенные аспекты ответственности могут выходить за рамки команды, развертывающей конкретную систему, на другие функции в рамках Министерства обороны или за ее пределами, на третьи стороны, которые создают или интегрируют системы с поддержкой ИИ для обороны.
В совокупности эти формулировки человеческого контроля, ответственности и владения рисками должны обеспечивать четкую отчетность за результаты любой системы с поддержкой ИИ в обороне. Не должно быть развертывания или использования без четкого разграничения ответственности и подотчетности, что не должно быть принято назначенным ответственным лицом, если оно не будет удовлетворено тем, что оно может осуществлять контроль, соизмеримый с различными рисками.
Третий принцип: понимание
Системы с поддержкой ИИ и их результаты должны быть должным образом поняты соответствующими лицами, а механизмы, обеспечивающие это понимание, должны быть явной частью проектирования системы.
Эффективное и этичное принятие решений в обороне, от фронта боевых действий до оперативных операций, всегда подкрепляется надлежащим пониманием контекста теми, кто принимает решения. Персонал обороны должен иметь соответствующее, зависящее от контекста понимание систем с поддержкой ИИ, с которыми они работают и работают вместе.
Этот уровень понимания, естественно, будет различаться в зависимости от знаний, необходимых для этичного поведения в данной роли и в данной системе. Это может включать понимание общих характеристик, преимуществ и ограничений систем ИИ. Для этого может потребоваться знание целей системы и правильной среды для использования, включая сценарии, в которых система не должна развертываться или использоваться. Также может потребоваться понимание производительности системы и возможных состояний отказа. Наши люди должны быть соответствующим образом обучены и компетентны, чтобы работать с этими инструментами или понимать их.
Чтобы обеспечить это понимание, мы должны быть в состоянии убедиться, что наши системы с поддержкой ИИ работают должным образом. Хотя природа некоторых систем машинного обучения как «черного ящика» означает, что их трудно полностью объяснить, мы должны иметь возможность проверять как системы, так и их результаты на уровне, который удовлетворяет тех, кто должным образом формально несет ответственность и подотчетен. Механизмы для интерпретации и понимания наших систем должны быть важной и четкой частью проектирования системы на протяжении всего жизненного цикла.
Это требование контекстно-зависимого понимания, основанного на технически понятных системах, должно распространяться не только на министерство обороны, но и на коммерческих поставщиков, союзные войска и гражданское население. Хотя абсолютная прозрачность в отношении работы каждой системы с поддержкой ИИ нежелательна и нецелесообразна, общественное согласие и сотрудничество зависят от общего понимания в зависимости от контекста. То, что делают наши системы, как мы намерены их использовать, и наши процессы для обеспечения положительных результатов в результате их использования должны быть максимально прозрачными в рамках необходимых ограничений контекста национальной безопасности.
Четвертый принцип: предвзятость и снижение вреда
Лица, ответственные за системы с поддержкой ИИ, должны активно снижать риск неожиданных или непреднамеренных смещений или вреда, возникающих в результате этих систем, будь то в ходе их первоначального развертывания или по мере их изучения, изменения или повторного развертывания.
Системы с поддержкой ИИ предлагают значительные преимущества для обороны. Однако использование систем с поддержкой ИИ также может причинить вред (помимо того, который уже принят в соответствии с существующими этическими и правовыми нормами) тем, кто их использует или затронут их развертыванием. Они могут варьироваться от вреда, вызванного отсутствием надлежащей конфиденциальности личных данных, до непреднамеренного военного вреда из-за непредсказуемости системы. Такой вред может меняться со временем по мере того, как системы учатся и развиваются, или по мере того, как они развертываются за пределами своих первоначальных настроек. Особую озабоченность вызывает риск дискриминационных результатов в результате алгоритмической предвзятости или искаженных наборов данных. Защита должна гарантировать, что ее системы с поддержкой ИИ не приведут к несправедливой предвзятости или дискриминации в соответствии с текущими стратегиями Министерства обороны США по разнообразию и интеграции.
Принцип предвзятости и уменьшения вреда требует оценки и, по возможности, смягчения этих предубеждений или вреда. Это включает в себя устранение предвзятости при принятии алгоритмических решений, тщательное отслеживание и управление наборами данных, установку мер безопасности и пороговых значений производительности на протяжении всего жизненного цикла системы, управление воздействием окружающей среды и применение строгих критериев разработки для новых систем или существующих систем, применяемых в новом контексте.
Пятый принцип: надежность
Системы с поддержкой ИИ должны быть явно надежными, надежными и безопасными.
Системы MOD с поддержкой ИИ должны быть достаточно надежными; они должны соответствовать намеченным критериям проектирования и развертывания и работать так, как ожидалось, в пределах допустимых параметров производительности. Эти параметры необходимо регулярно пересматривать и тестировать, чтобы обеспечить их надежность на постоянной основе, особенно по мере того, как системы с поддержкой ИИ учатся и развиваются с течением времени или развертываются в новых условиях.
Учитывая уникальный оперативный контекст Министерства обороны и проблемы информационной среды, этот принцип также требует, чтобы системы с поддержкой ИИ были безопасными, а также надежный подход к кибербезопасности, защите данных и конфиденциальности.
Персонал Минобороны, работающий с системами с поддержкой ИИ или вместе с ними, может завоевать доверие к этим системам, убедившись, что у них есть соответствующий уровень понимания производительности и параметров этих систем, как сформулировано в принципе понимания.
Приложение B: Консультативная группа Министерства обороны по этике искусственного интеллекта
Консультативная группа MOD AI по этике является неофициальным консультативным советом 2-го постоянного министра обороны в его роли старшего ответственного лица по этике AI в министерстве.
Цель группы состоит в том, чтобы объединить мнения экспертов из Министерства обороны, научных кругов, промышленности и гражданского общества для консультирования 2-го постоянного секретаря по вопросам разработки политики, касающейся безопасной и ответственной разработки и использования ИИ.
Группа носит только консультативный характер и не имеет формальных полномочий по принятию решений, но будет нести ответственность за тщательное изучение текущего подхода Министерства обороны к ответственному и этичному ИИ. Эксперты были назначены министерством обороны на основе их опыта в области разработки ИИ, этики ИИ, военной этики и международного права.
На момент публикации текущая комиссия собиралась три раза и сыграла ключевую роль в обеспечении тщательного изучения и предоставлении рекомендаций по разработке этических принципов и потенциальных методов реализации. Комиссия не участвовала в создании политики, связанной с автономными системами смертоносного оружия, а также политики департамента в отношении безопасности ИИ.
Текущий состав группы выглядит следующим образом:
Лоуренс Ли, 2-й постоянный министр обороны (председатель)
Профессор Дапо Аканде, директор Оксфордского института этики, права и вооруженных конфликтов
Профессор Ник Колозимо, глобальный научный сотрудник и технолог, BAE systems и приглашенный профессор Крэнфилдского университета (Центр автономных и киберфизических систем).
Д-р Мерел Экельхоф, сотрудник по обмену валют в Объединенном центре искусственного интеллекта Министерства обороны США и бывший ведущий исследователь по искусственному интеллекту и автономии в ЮНИДИР, присутствовала на панели в своем личном качестве.
Табита Голдстауб, основатель CognitionX и председатель Совета по искусственному интеллекту
Д-р Даррелл Джая-Ратнам, управляющий директор DIEM Analytics
Профессор Питер Ли, профессор прикладной этики Портсмутского университета
Профессор дама Анджела Маклин, главный научный советник Министерства обороны
Ричард Мойес, управляющий директор и соучредитель, Статья 36
Профессор Гопал Рамчурн, директор Центра надежных автономных систем UKRI и Университета Саутгемптона
Полли Скалли, директор по стратегии Министерства обороны
профессор Мариаросариа Таддео, доцент и старший научный сотрудник Оксфордского института Интернета Оксфордского университета; Научный сотрудник Dstl по этике, Институт Алана Тьюринга.
Генерал-лейтенант Роли Уокер, заместитель начальника штаба обороны по военной стратегии и операциям
Профессор Дэвид Уетэм, профессор этики и военной профессии, Королевский колледж Лондона
Доминик Уилсон, генеральный директор по политике безопасности, Министерство обороны
ПРИЛОЖЕНИЕ C: Летальные автономные системы вооружения (LAWS)
Одна из наиболее серьезных проблем, связанных с использованием ИИ в обороне, связана с введением элементов автономии в использование систем вооружения. Эта тема уже стала источником значительных международных дебатов, особенно в рамках Группы правительственных экспертов ООН по ПРАВАМ. В следующем разделе изложена позиция Великобритании в отношении этого потенциального варианта использования систем с поддержкой ИИ.
ИИ может позволить системам, в том числе оружию, проявлять некоторую автономию: принимать решения и действовать для достижения желаемых целей в рамках определенных параметров на основе приобретенных знаний и развивающейся ситуационной осведомленности. Это потенциально может привести к созданию оружия, которое идентифицирует, выбирает и атакует цели без соответствующего контексту участия человека. Это неприемлемо — Великобритания не обладает полностью автономными системами вооружения и не собирается их разрабатывать.
Мы твердо убеждены, что ИИ в системах вооружения может и должен использоваться законно и этично. Разделяя озабоченность правительств и экспертов по искусственному интеллекту во всем мире, мы поэтому выступаем против создания и использования систем, которые будут работать без значимого и соответствующего контексту участия человека на протяжении всего их жизненного цикла. Применение такого оружия не могло бы соответствовать ни фундаментальным принципам международного гуманитарного права, ни нашим собственным ценностям и стандартам, выраженным в наших Этических принципах ИИ. Человеческая ответственность и подотчетность не могут быть сняты — независимо от уровня ИИ или автономии в системе. Великобритания всегда будет четко устанавливать полномочия, а значит, человеческую ответственность и подотчетность всякий раз, когда британские силы развертывают системы вооружения, включающие ИИ.
Мы будем продолжать тесно сотрудничать с международными союзниками и партнерами, чтобы учитывать возможности и риски, связанные с автономией в системах вооружений. Глобальное управление такими системами является сложной задачей. Будет сложно достичь международного соглашения по определениям полной или частичной автономии на техническом или системном уровне. Также важно обеспечить, чтобы любой подход допускал быстрое технологическое развитие и не стал избыточным или его нельзя было обойти по мере развития технологий. Такие международные процессы должны быть инклюзивными и включать в себя всех ключевых участников этого пространства, если они хотят быть эффективными.
Мы считаем, что наилучший подход заключается в том, чтобы сосредоточиться на выработке норм применения и позитивных обязательств, чтобы продемонстрировать, как степени автономии в системах вооружений могут использоваться в соответствии с международным гуманитарным правом — при соответствующем уровне человеческого контроля, подотчетности и ответственности. Определение тех характеристик, которые изначально делают невозможным соблюдение системой международного гуманитарного права, является ключом к этому, и мы будем продолжать активно участвовать на международной арене для достижения консенсуса по ним. Группа правительственных экспертов ООН по ПРАВО в соответствии с Конвенцией о конкретных видах обычного оружия будет и впредь оставаться нашим основным каналом для таких дискуссий. Наш собственный подход, основанный на этических принципах ИИ, заключается в том, чтобы добиться понимания,
- Эндрю Нг: Почему ИИ — это новое электричество, gsb.stanford.edu/insights/Andrew-ng-why-ai-new-electricity ↩
- Совместная концептуальная записка 1/18 — Объединение человека и машины ↩
- Для объяснения того, как эти юридические и наши этические принципы применяются к обсуждениям смертоносных автономных систем оружия, см. Приложение C. ↩
- Объяснение того, как эти этические принципы, а также правовые принципы международного гуманитарного права применяются к обсуждениям смертоносных автономных систем оружия, см. в Приложении C. ↩
- Наша совместная методология включала в себя кабинетное исследование и исследование на основе интервью, посвященное изучению ключевых вопросов, в том числе уникальных этических проблем, связанных с ИИ в обороне. Мы применили ряд методов для проверки и повторения принципов, в том числе индивидуальные и групповые интервью, круглые столы и семинары с участием экспертов из министерства обороны, промышленности, научных кругов, гражданского общества, правоохранительных органов, правительства и военнослужащих на передовой. Мы также проверили принципы на ряде гипотетических вариантов использования оборонного ИИ и на типичном жизненном цикле оборонной системы ИИ. Более подробная информация об этом процессе будет изложена в совместном отчете Министерства обороны и CDEI, который мы намерены опубликовать в 2022 году. ↩
Оборона и вооруженные силы Великобритании в 2022 — 2023 годах
Услуги
- Финансовая помощь, если вы инвалид
Финансовая помощь, если вы инвалид — льготы, расходы на жилье, муниципальный налог, освобождение от налога на транспортное средство, телевизионная лицензия, схемы мобильности, освобождение от НДС.
- Рассчитайте свою военную пенсию
Оцените свою военную пенсию — получите прогноз своей военной пенсии, подайте заявку онлайн или по почте
- Получить копию военного билета
Получите записи о военной службе в армии, Королевском флоте, Королевской морской пехоте или Королевских ВВС с 1920 года — кто может подать заявку, сколько времени это займет, стоимость, как подать заявку
- Право на проживание
Кто имеет право проживать в Великобритании — если вы гражданин Великобритании, Ирландии, ЕС, Швейцарии, Норвегии, Исландии или Лихтенштейна.
- Подать заявку на медаль или значок ветеранов
Как подать заявление на получение медали или значка ветерана — кто может подать заявление, формы заявления, контактные данные, сколько времени это занимает, замена военных медалей или значков
Руководство и регулирование
- Военные низколетящие: график оперативных тренировок RAF по низколетящим полетам
- Руководство
- Министерство обороны
- Пенсии вооруженных сил
- Подробное руководство
- Министерство обороны, Консультативный и пенсионный комитеты ветеранов и ветераны Великобритании
- Пенсионные и страховые декларации ветеранов вооруженных сил Великобритании
- Подробное руководство
- Министерство обороны и ветеранов Великобритании
- Финансовые санкции, Россия
- Руководство
- Казначейство Ее Величества и Управление по реализации финансовых санкций
- Медали: кампании, описания и право на участие
- Подробное руководство
- Министерство обороны
Новости и коммуникации
- Заместитель министра обороны Украины посетил учения Королевского флота по разминированию в рамках визита в Великобританию
- Министерство обороны
- News story
- Сканирование горизонтов в поисках более умных совместных ракет
- Акселератор обороны и безопасности и Лаборатория оборонных наук и технологий
- News story
- Эдриан Берд назначен новым начальником военной разведки
- Министерство обороны
- пресс-релиз
- Великобритания отправит Украине десятки артиллерийских орудий и сотни беспилотников
- Министерство обороны
- News story
- Разработка вертолета без экипажа стоимостью 60 миллионов фунтов стерлингов поддерживает 100 рабочих мест в Великобритании
- Министерство обороны
- пресс-релиз
Исследования и статистика
- Зафиксированы мигранты, пересекающие Ла-Манш на небольших лодках — ежедневные данные
- Министерство обороны
- Набор статистических данных
- Количество тестов на COVID-19 в обороне и положительных случаев в вооруженных силах Великобритании в 2022 г.
- Министерство обороны
- Официальная статистика
- Непрерывное исследование отношения семей с тремя услугами: 2022 г.
- Министерство обороны
- Официальная статистика
- Предварительный список доступа к статистике MOD
- Министерство обороны
- Официальная статистика
- Орган по пересмотру заработной платы в вооруженных силах: пятьдесят первый отчет, 2022 г.
- Орган по пересмотру заработной платы вооруженных сил, Управление экономики рабочей силы и Министерство обороны
- Независимый отчет
Аналитические документы и консультации
- Стратегия защиты от сексуальных преступлений
- Министерство обороны
- Политический документ
- Хартия женщин в обороне
- Министерство обороны
- Политический документ
- Структура оборонных возможностей
- Министерство обороны
- Политический документ
- Двусторонние рамки между Великобританией и Республикой Корея
- Министерство иностранных дел, по делам Содружества и развития и канцелярия премьер-министра, Даунинг-стрит, 10.
- Политический документ
- Стратегия защиты здоровья и благополучия людей на период с 2022 по 2027 год
- Министерство обороны
- Политический документ
Смотрите больше программных документов и консультаций в этой теме
Прозрачность и свобода раскрытия информации
- Оборонное оборудование и поддержка: корпоративный план (2022–2025 финансовые годы)
- Министерство обороны и оборонное оборудование и поддержка
- Корпоративный отчет
- Военный суд центрирует судебные списки
- Министерство обороны
- Прозрачность
- Ответы министерства обороны, опубликованные Министерством обороны: неделя, начинающаяся 18 июля 2022 г.
- Министерство обороны
- релиз
- Годовые отчеты Пенсионной схемы вооруженных сил с 2021 по 2022 год
- Министерство обороны
- Корпоративный отчет
- Годовой отчет и финансовая отчетность оборонного оборудования и поддержки за 2021–2022 годы
- Министерство обороны
- Корпоративный отчет
Подробнее о прозрачности и свободе раскрытия информации смотрите в этой теме
Исследуйте подтемы
- Соглашение о вооруженных силах
- Вооруженные силы
- Вооруженные силы и реформа Министерства обороны
- Поддержка вооруженными силами действий в Великобритании
- Международные оборонные обязательства
- Военные награды и памятные знаки
- Военная техника, логистика и технологии
- Военный набор, обучение и операции
- Поместье Министерства обороны
- Ядерное разоружение
- Стабильность на Западных Балканах
- Вспомогательные услуги военнослужащим и военнослужащим и их семьям
- Службы поддержки ветеранов и их семей
- Ядерное сдерживание Великобритании
- Распространение оружия
Вооруженные силы и реформа Министерства обороны Великобритании 2022/2023
Руководство и регулирование
- Стандартные положения и условия DASA
- Подробное руководство
- Акселератор обороны и безопасности
- Политика Министерства обороны по борьбе с неприемлемым поведением
- Подробное руководство
- Министерство обороны
- Отправить предложение
- Подробное руководство
- Акселератор обороны и безопасности и Лаборатория оборонных наук и технологий
- Будущая модель размещения: что вам нужно знать
- Руководство
- Министерство обороны
- Многодоменная интеграция
- Подробное руководство
- Стратегическое командование и Министерство обороны
Новости и коммуникации
- Обновление: авиаудары по ДАИШ
- Министерство обороны
- News story
- Военная юстиция будет усилена цифровой перестройкой
- Министерство обороны
- пресс-релиз
- Новые улучшения бронежилетов для женщин в вооруженных силах Великобритании
- Министерство обороны, Лаборатория оборонной науки и технологий, оборонное оборудование и поддержка
- пресс-релиз
- Уэльс выиграет от радикальной трансформации армии
- Канцелярия государственного секретаря Уэльса
- пресс-релиз
- HMS Queen Elizabeth возвращается домой, поскольку историческое глобальное развертывание подходит к концу
- Министерство обороны
- пресс-релиз
Исследования и статистика
- Обзор режима непрерывной работы вооруженных сил: 2016/17 г.
- Министерство обороны
- Официальная статистика
- Развертывание личного состава вооруженных сил Великобритании и военное присутствие регулярного персонала Великобритании
- Министерство обороны
- Официальная статистика
- Оборона Великобритании в цифрах 2015
- Министерство обороны
- Официальная статистика
- Силы резерва Великобритании и численность курсантов: 2015 г.
- Министерство обороны
- Национальная статистика
- Силы резерва Великобритании и численность курсантов: 2014 г.
- Министерство обороны
- Национальная статистика
Аналитические документы и консультации
- Публичные консультации по программе модернизации обороны
- Министерство обороны
- Результат консультации
- Дата закрытия 30 апреля 2018 г.
- Предлагаемое прекращение возможности восстановления вооруженных сил Великобритании: раненые, раненые и больные на пути восстановления Официальная статистика
- Министерство обороны
- Результат консультации
- Дата закрытия 23 августа 2017 г.
- Оборонно-промышленная политика
- Министерство обороны
- Результат консультации
- Дата закрытия 06 января 2017 г.
- Стратегия защиты от сексуальных преступлений
- Министерство обороны
- Политический документ
- Стратегия стратегического командования
- Стратегическое командование и Министерство обороны
- Политический документ
Смотрите больше программных документов и консультаций в этой теме
Прозрачность и свобода раскрытия информации
- Защита в эпоху конкуренции
- Министерство обороны
- Корпоративный отчет
- Ответы на вопросы о свободе информации, опубликованные Министерством обороны: неделя, начинающаяся 24 апреля 2017 г.
- Министерство обороны
- релиз
- Ответы на вопросы о свободе информации, опубликованные Министерством обороны: неделя, начинающаяся 9 мая 2016 г.
- Министерство обороны
- релиз
- Ответы на вопросы о свободе информации, опубликованные Министерством обороны: неделя, начинающаяся 25 апреля 2016 г.
- Министерство обороны
- релиз
- План оборонного оборудования 2013 г.
- Министерство обороны
- Корпоративный отчет
Подробнее о прозрачности и свободе раскрытия информации смотрите в этой теме
Организации
Поддержка вооруженными силами действий в Великобритании в 2022 и в 2023 году
Руководство и регулирование
- Военные низколетящие: график оперативных тренировок RAF по низколетящим полетам
- Руководство
- Министерство обороны
- Военные низколетящие: воздушные учения, спонсируемые MOD
- Руководство
- Министерство обороны
- Сайты MOD, затронутые SOCAP
- Руководство
- Министерство обороны и организация оборонной инфраструктуры
- Уэссекские резервные силы и ассоциация кадетов
- Подробное руководство
- Объединения резервных войск и кадетов (RFCA)
- Ассоциация резервистов и кадетов в Уэст-Мидлендсе
- Подробное руководство
- Объединения резервных войск и кадетов (RFCA)
Новости и коммуникации
- Заместитель министра обороны Украины посетил учения Королевского флота по разминированию в рамках визита в Великобританию
- Министерство обороны
- News story
- Тысячи военнослужащих поддерживают меры реагирования на Covid-19
- Министерство обороны и офис Северной Ирландии
- пресс-релиз
- Двести военнослужащих вооруженных сил будут поддерживать больницы NHS в Лондоне
- Министерство обороны
- пресс-релиз
- Вооруженные силы усилит поддержку скорой помощи Уэльса
- Министерство обороны и канцелярия государственного секретаря Уэльса
- News story
- Вооруженные силы поддержат программу вакцинации в Уэльсе
- Министерство обороны и канцелярия государственного секретаря Уэльса
- News story
Исследования и статистика
- Ежеквартальная карманная сводка Королевского флота и Королевской морской пехоты: 2017 г.
- Министерство обороны
- Официальная статистика
- Ежеквартальная карманная сводка Королевского флота и Королевской морской пехоты: 2016 г.
- Министерство обороны
- Официальная статистика
- Реагирование оборонных ядерных аварийных ситуаций: отчеты после учений
- Министерство обороны
- Исследовательская работа
- Ежеквартальная карманная сводка Королевского флота и Королевской морской пехоты: 2015 г.
- Министерство обороны
- Официальная статистика
- Ежеквартальная карманная сводка Королевского флота и Королевской морской пехоты: 2014 г.
- Министерство обороны
- Официальная статистика
Аналитические документы и консультации
- Государственная политика с 2015 по 2020 год: военная помощь гражданским властям для деятельности в Великобритании.
- Министерство обороны
- Политический документ
- Государственная политика с 2010 по 2015 год: поддержка вооруженными силами действий в Великобритании.
- Министерство обороны
- Политический документ
Смотрите больше программных документов и консультаций в этой теме
Телеграм канал ВикиВиза https://t.me/wikivisa
Чат и оперативные ответы по визам https://t.me/wikivisa_chat