Пакт о ненападении
Искусственный интеллект — это компьютерная программа. Но ни один вид программ не вызывает столько страхов, сколько ИИ. Некоторые из этих угроз признают даже специалисты. Поэтому в России уже действует альянс разработчиков ИИ, участники которого обязуются следовать строгому этическому кодексу. Сергей Израйлит, один из создателей кодекса, ответил на вопросы «Цифрового океана».
Почeму люди боятся ИИ?
История ИИ как концепции уже довольно стара. Если вспомнить научную фантастику, то она обсуждается уже больше полувека. Традиционно такие интеллектуальные системы наделялись человеческими свойствами. Как результат предполагалось, что они будут конкурировать с людьми, а возможно, и противостоять нам, как в «Матрице». Искусство сформировало большой комплекс страхов, которые активировались, когда технологии ИИ стали появляться в повседневной жизни. Сегодня, когда они с успехом решают когнитивные задачи, с которыми раньше справлялся только человек, многим кажется: вот оно, уже происходит, и если ничего не сделать, то завтра роботы нас поработят.
Мoжeт ли ИИ иметь злой умыcел?
Что-то вроде. Сам смысл интеллектуальных систем состоит в том, чтобы выделять закономерности в больших объемах данных. Включая те данные, которые генерирует человек. А наши действия зачастую дискриминационны, содержат явное или скрытое предубеждение по отношению к людям другого пола, цвета кожи, другой национальности или религии, хотя мы редко признаемся в этом даже самим себе. Но если ИИ получает большой массив данных для обработки, то он, естественно, выхватывает из него и такие закономерности. В результате появляются инструменты, которые дискриминируют уже не как люди, от случая к случаю, а системно. В отличие от фантастических фобий это вполне объективная угроза.
В некоторых случаях злой умысел имеет не ИИ, а его создатели. Например, мошенники, которые с помощью дипфейков выманивают у людей деньги, имитируя голоса родных. Однако это заведомо преступная история, и никаких этических сложностей тут нет. Этика может работать как инструмент «мягкого» права добросовестных участников отношений, то есть честных производителей ИИ.
Кaкой pеaльный вpед мoжeт нaнести ИИ, кpоме преступлeний?
Самый очевидный пример из жизни — цифровые персональные помощники. Такие программы должны помогать человеку обустраивать быт: искать билеты в кинотеатр, предупреждать о пробках, помогать в заполнении налоговой декларации. Соответственно, хочется, чтобы система действовала в интересах пользователя. Если персональный помощник подыскивает билеты или номера, стоит удостовериться, что разработчик не настроил его так, чтобы продвигать предложения своих партнеров, невыгодные пользователю. Коррумпировать такую систему совсем просто, это можно сделать даже удаленно. Поэтому от разработчиков таких систем уже требуются определенные этические декларации и обязательства.