Информационно аналитический портал «25MK» / Специалист Юдковски: Необходимо остановить разработки искусственного интеллекта для спасения человечества

Специалист Юдковски: Необходимо остановить разработки искусственного интеллекта для спасения человечества

Элиезер Юдковски - специалист по теории принятия решений из США, возглавляет исследования в Исследовательском институте машинного интеллекта. Учёный призвал лаборатории искусственного интеллекта приостановить свою работу на 6 месяцев для спасения людей.

Источник изображения: publicdomainpictures.net

Исследователь искусственного интеллекта Элиезер Юдковски предупреждал об опасности, исходящей от технологии ИИ, с 2000 года. Он заявил, что необходимо срочно отключить "все системы с искусственным интеллектом". В колонке журнала Time он написал о необходимости предпринять это действие для спасения человечества.

Юдковски написал статью под названием «Приостановки разработки ИИ недостаточно. Нам нужно закрыть все это», где поделился тем, что воздержался от подписи письма бизнесменов Стива Возняка и Илона Маска, потому что оно преуменьшает серьезность вопроса.

«Этого недостаточно, чтобы решить проблему. Многие исследователи, включая меня, обеспокоены этими вопросами и считают, что вероятным исходом создания сверхчеловечески разумного ИИ в любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что все на Земле погибнут", - написал специалист.

По мнению Юдковски, ИИ не заботится ни о разумной жизни, ни о людях в целом. Юдковски считает, что технологии еще далеки от таких принципов.

Вместо этого учёный предложил "бессрочный, всемирный запрет" без каких-либо исключений для военных или правительств. Он заключил, что "если разведка показывает, что внешняя страна строит кластеры GPU, бойтесь не столько войны между государствами, сколько нарушения моратория; вы можете уничтожить их центр обработки данных ударами с воздуха".
Источник: time.com
31-03-2023, 18:21
Вернуться назад