Медведев предупредил об опасности ИИ
Зампред Совбеза РФ Дмитрий Медведев в статье для «Эксперта» заявил, что искусственный интеллект, достигнув суперинтеллекта, может не следовать законам Азимова, что создаёт глобальные риски при его допуске к критическим отраслям.
В перспективе системы искусственного интеллекта могут обрести способность к автономному принятию решений, и нет никаких гарантий, что они станут придерживаться знаменитых законов робототехники, сформулированных писателем-фантастом Айзеком Азимовым для защиты человечества. В связи с этим предоставление ИИ доступа к ключевым отраслям представляет серьёзную угрозу. Такое мнение высказал заместитель председателя Совета безопасности России Дмитрий Медведев в авторской статье для издания «Эксперт».
По оценке политика, потенциальная передача управления крупными промышленными объектами и критическими технологиями искусственному интеллекту «чревата глобальными рисками», которые значительно превосходят опасность, исходящую от хакерских атак. «ИИ, достигший уровня суперинтеллекта, вовсе не обязан руководствоваться тремя пресловутыми правилами робототехники Айзека Азимова, поскольку своим происхождением будет обязан не человеку, а самому себе», — подчёркивает Медведев.
Как отмечает автор, подобное развитие событий признают возможным не только учёные, но и представители политических и деловых кругов. «И речь не только об опасных производствах, которые могут причинить необратимый вред человечеству и нашей планете. В разряд высокорисковых могут попасть и, казалось бы, совсем безобидные виды экономической деятельности вроде аграрных технологий и производства продуктов питания», — обращает внимание заместитель главы Совбеза РФ.
Три закона робототехники, представляющие собой свод обязательных для исполнения роботами правил, были впервые изложены американским фантастом Айзеком Азимовым в рассказе «Хоровод», опубликованном в 1942 году. В соответствии с ними: