Если есть искусственный интеллект, то должна быть и некая система взаимодействия с ним, некая новая этика применения.
Спикер: Андрей Незнамов, управляющий директор центра регулировании ИИ Сбербанка.
Свою лекцию Андрей Незнамов начинает с введения в проблему регулирования искусственного интеллекта. Регулировать — значит создавать правила. Можно представить, что общество — это лифт, в котором едет много людей. Если их сильно много, то всем будет некомфортно, а в отдельных случаях лифт может просто не тронуться с места. Но если количество людей соответствует норме, то всем будет комфортно и никаких проблем. Этика ИИ похожа, но несколько сложнее. При регулировании создаются определенные правила поведения. Регулирование — это не только подписанные законы, это инструменты в отношении морали, нравственности, религии, технические стандарты и прочее. По сути это то, что определяет человеческую жизнь и существование общества. Подобным образом применяется и этика искусственного интеллекта.
Сегодня многие люди уже сталкивались с технологиями робототехники, искусственного интеллекта, квантовых вычислений, блокчейна. Сегодня они проникают в повседневную жизнь, а значит, требуют регулирования.
Когда массово начали применяться автомобили, никто не знал, что с ними делать и чего ожидать, поэтому британский парламент в 1965 году принял закон, согласно которому перед каждой машиной должен идти человек с красным флагом и предупреждать об опасности. До тех пор, пока закон не отменили, британская промышленность не развивалась. Это очень хороший пример того, как регулирование в целом влияет на повседневную жизнь. В России и Германии регулирование участникам рынка не мешало, а способствовало развитию. В некоторых случаях регулирование отстает от развития, потому что благодаря Генри Форду в США, например, машин стало так много, что они просто заполонили улицы. Аналогичным образом возникают и механизмы искусственного интеллекта, которые пока что остаются не до конца изученными, а поэтому сложнорегулируемыми.
Первые в мире правила дорожного движения были закреплены только в середине ХХ века. Общепризнанные правила для новых технологий всегда отстают от реальности. Например, первый полет самолета произошел в 1903 году, но глобальная конвенция появилась в 1944 году. Ядерное оружие появилось во время Второй мировой войны, а глобальный документ — договор о нераспространении ядерного оружия — появился только в 1968 году. Клонирование, его коммерческое использование было остановлено только за счет того, что ведущие генетики собрались в Калифорнии, договорились не использовать эту компьютерную технологию в таких целях, а декларацию приняли только в 2005 году.
Сейчас новые международные технологии предстают в виде искусственного интеллекта, и поэтому важна этика ИИ в России и мире. Любопытный пример, в 1979 году американский писатель описал, как будет выглядеть Олимпиада 2020, представляя, что она уже будет проводиться на Луне. Но этого не произошло. Хотя возможности такие сейчас есть, чтобы установить факел прямо на Луне. Роботы и ИИ находятся здесь и прямо сейчас, поэтому люди перестали их замечать. Встает вопрос: как это регулироваться и какой должен быть кодекс этики ИИ? Здесь опять же идет отставание нормативной базы от новых технологий. Например, беспилотные машины тестируются уже достаточно давно, но они не ездят повсеместно, потому что ПДД не предусматривают машину, которой не управляет человек. Что делать? Создаются особые правовые условия, разрешается тестирование в пределах обозначенной территории, определяется уполномоченный орган и формулируется понятная национальная регламентация процедуры испытаний, возлагается ответственность на доверенное лицо, получившее разрешение на тестирование, инициируются изменения Венской конвенции 1968 года и так далее. Все это влияет на этику в сфере искусственного интеллекта. Важно решить вопрос, как обеспечить соответствие регулирования уровню разработок. Нужно создать условия для тестирования, это очень важно.
Технологии искусственного интеллекта имеют огромное стратегическое значение для нашей страны. Они уже проникли во многие сферы жизни, так что появляется необходимость в правовом регулировании ИИ.
В 2019 году Владимиром Путиным был подписан указ «О развитии искусственного интеллекта в России». В этом документе отражается национальная стратегия на период до 2030 года. Основными целями регулирования будут следующие:
Для оперативного реагирования на нововведения в области искусственного интеллекта в 2021 году начал работать экспертный совет на базе ФГУП «ГРЧЦ». Его участники уже провели несколько заседаний для обсуждения проблемы регулирования ИИ. Тогда же был разработан кодекс этики, определяющий требования, которым должны соответствовать технологии с применением ИИ. В этом кодексе описываются главные этические нормы использования технологий ИИ: прозрачность, справедливость, безопасность, ответственность, конфиденциальность.
Искусственный интеллект может быть сильным и слабым. Сильный искусственный разум − это машина, готовая к решению узкоспециализированных задач, она может обучаться новому. Слабый ИИ − это программы для решения конкретных задач, например автовождения и т. д.
Сильный искусственный интеллект на данный момент пока не изобретен. Американские ученые считают, что ИИ превзойдет человека только спустя 74 года, азиатские ученые полагают, что это случится уже через 30 лет. Однако не стоит доверять прогнозам на 40 лет вперед.
Несмотря на то, что сильный искусственный интеллект появится еще нескоро, он породит массу проблем. Одним из вопросов будет следующий: можно ли обижать искусственный интеллект? Сегодня никто вас не упрекнет, если вы оскорбите голосового помощника, но все будет иначе, если вы начнете плохо обращаться с кошкой. И все не потому, что кошка живая, а потому, что она может чувствовать плохое к себе отношение. Это же будет происходить и с сильным искусственным интеллектом.
Второй проблемой этики искусственного интеллекта являются плохие намерения. Задача, которую будет призван решать ИИ, может быть не совсем этичной. Например, если мы с помощью машинного обучения учим дроны уничтожать людей.
Этику сложно формулировать, она формируется в каждой стране по-своему и может меняться со временем. К примеру, в Китае считается нормой контроль за передвижением людей с помощью камер видеонаблюдения. Этическое регулирование сильного искусственного разума на данный момент далеко от реальности. Однако это не говорит о том, что этика в сфере ИИ неприменима вовсе. Важно не только ее юридическое регулирование, но и защита прав людей от машины. В первую очередь это сокращение рисков, которые связаны с применением искусственного разума.
Алгоритмы искусственного интеллекта помогают делить людей на группы в зависимости от того, насколько угодно или не угодно их поведение властям – неугодным могут приостановить социальные выплаты, отказать в оформлении займа, запретить выезд из страны или работу в конкретных сферах. ВОЗ выложила доклад, в котором требует проверять алгоритмы искусственного интеллекта на предмет дискриминации по возрасту. Угроз, которые связаны с развитием искусственного интеллекта, довольно много.
Между тем искусственный разум является только инструментом, пусть и довольно высокотехнологичным. Он изобретен для человеческих потребностей, может быть использован как во благо человечества, так и во вред. Например, с помощью искусственного распознавания лица можно ускорить поиск преступника. Но надо признать, что даже самые современные системы распознавания, созданные на основе искусственного интеллекта, могут не узнать тебя или принять за другого человека. Технологии ИИ не являются прозрачными полностью. Мы часто не отдаем себе отчет в том, как что-то будет функционировать и к каким последствиям это может привести.
Подводя итог, можно сказать, что сильного ИИ пока не существует и человек умнее большинства алгоритмов. Этика ИИ различается в разных странах и тяжело формализуется. Имеется необходимость в юридическом регулировании ИИ.