Соединенные Штаты Америки, Великобритания и более десятка других стран представили первое подробное международное соглашение о том, как защитить искусственный интеллект от использования с вредоносными целями. Стороны призвали компании создавать системы ИИ, которые «безопасны по своей архитектуре».
Помогаем
Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников
В 20-страничном документе 18 стран согласились, что компании, разрабатывающие и использующие ИИ, должны разрабатывать и внедрять его таким образом, чтобы защитить клиентов и широкую общественность от неправильного использования. Соглашение не является обязательным и содержит в основном общие рекомендации, такие как мониторинг систем ИИ на предмет злоупотреблений, защита данных от фальсификации и проверка поставщиков ПО.
Страны, подписавшие документ, рассматривают вопросы о том, как защитить технологию ИИ от взлома хакерами. В перечне также содержатся такие рекомендации, как выпуск моделей ИИ только после соответствующего тестирования безопасности.
Вместе с тем в документе не рассматриваются острые вопросы о правильном использовании ИИ или о том, как собираются данные, которые используются в этих моделях.