Microsoft, Google и OpenAI прeдпринимaют знaчитeльныe шaги в нaпрaвлeнии oтвeтствeннoгo рaзвития технологий. Сии компании добровольно возьмут получай себя основные распоряжения безопасности для технологий искусственного интеллекта.
Крупные организации осознают проблемы, связанные с души развивающимся ИИ. Слаженно проекту документа, технологические фирмы должны увязать восемь предложенных мер, касающихся безопасности, защиты и социальной ответственности. Сии меры включают в себя вручение независимым экспертам потенциал тестировать модели ИИ держи предмет потенциально плохого поведения, инвестирование в кибербезопасность и вознаграждение третьих лиц к выявлению уязвимостей в системе безопасности.
Затем чтоб устранить социальные риски, начиная предвзятость и ненадлежащее приложение, компании сосредоточатся возьми тщательном изучении последствий. Они тоже будут делиться информацией о доверии и безопасности с другими компаниями и правительством, содействуя совместному подходу к ответственной разработке ИИ.
За исключением того, они планируют торкретировать водяные знаки получи аудио- и визуальный контент, построенный искусственным интеллектом, воеже предотвратить неправильное употребление или дезинформацию. Компании обязуются истощить самые современные системы искусственного интеллекта, известные подобно ((тому) как) пограничные модели, интересах решения серьезных проблем, с которыми сталкивается кружок.
Добровольный характер сего соглашения ясно демонстрирует невзгоды, с которыми сталкиваются законодатели, пытаясь безлюдный (=малолюдный) отставать от быстрых темпов развития искусственного интеллекта.