OpenAI и другие ведущие лаборатории ИИ берут на себя ряд добровольных обязательств
OpenAI и другие ведущие лаборатории искусственного интеллекта берут на себя ряд добровольных обязательств по повышению безопасности, защищенности и надежности технологий искусственного интеллекта и наших услуг. Этот процесс, координируемый Белым домом, является важным шагом на пути к осмысленному и эффективному управлению ИИ как в США, так и во всем мире.
Добровольные обязательства по ИИ:
1) Приверженность внутреннему и внешнему объединению моделей или систем в областях, включая неправомерное использование, социальные риски и проблемы национальной безопасности, такие как биологическая, кибербезопасность и другие области безопасности.
2) Работать над обменом информацией между компаниями и правительствами о рисках доверия и безопасности, опасных или возникающих возможностях и попытках обойти меры безопасности.
3) Инвестировать в кибербезопасность и защиту от инсайдерских угроз, чтобы защитить проприетарные и невыпущенные весовые модели.
4) Мотивировать стороннее обнаружение и сообщение о проблемах и уязвимостях.
5) Разработать и внедрить механизмы, позволяющие пользователям понять, создан ли аудио- или визуальный контент с помощью ИИ, включая надежное происхождение, водяные знаки или и то, и другое для аудио- или визуального контента, сгенерированного ИИ.
6) Публично сообщать о возможностях модели или системы, ограничениях и областях надлежащего и ненадлежащего использования, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость.
7) Уделить приоритетное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе по предотвращению вредных предубеждений и дискриминации и защите конфиденциальности.
8) Разработать и внедрить передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества.