Страны G7 согласовали общие принципы, которые должны выполнять разработчики искусственного интеллекта (ИИ), включая внедрение системы маркировки созданного с его помощью контента. Лидеры стран «семерки» опубликовали по этому поводу заявление.
«Мы, лидеры G7, акцентируем на инновационных возможностях и потенциале продвинутых систем искусственного интеллекта… Мы также признаем необходимыми управление рисками и защиту отдельных лиц, общества и наших общих принципов, включая верховенство права и демократические ценности», — говорится в сообщении
Члены G7 призывают разработчиков искусственного интеллекта разработать и внедрить механизмы удостоверения контента и установления его происхождения в случаях, когда «это технически возможно», в том числе при помощи условных помет и «других методов, которые позволят пользователям идентифицировать контент, созданный ИИ».
Создателей ИИ призывают принимать меры для выявления и снижения рисков на протяжении всех этапов разработки, выявлять и устранять уязвимости, а также «ненормальности и схемы злоупотребления».
Разработчики ИИ, как отмечается, должны инвестировать в создание систем контроля безопасности, делать приоритетным исследование способов снижения «социальных рисков и рисков для безопасности», а также ставить в приоритет изучение методов смягчения последствий таких рисков.
Страны G7 призывают разработчиков содействовать созданию и принятию международных технических стандартов, а также внедрить меры по защите персональных данных и интеллектуальной собственности.