Почему искусственный интеллект — это очень страшно

Искусственный интеллект скоро будет повсюду. Если вас это не пугает, наверное, вы просто не в курсе, что даже его создатели не понимают, как он работает.

Давайте для начала рассмотрим такую простую штуку, как обычный пассажирский самолет. Ни для кого не секрет, что большую часть полета лайнер управляется автоматически, а задача пилота сводится к контролю за автоматикой. Автопилоты применяются в пассажирских авиаперевозках десятки лет, и ярых противников этого в общем нет. Тем более, по статистике, человеческий фактор приводит к авариям чаще, чем отказ электроники.

Отличие «безопасного» интеллекта системы автоматического управления самолетом от искусственного интеллекта в общепринятом понимании состоит в том, что автопилот является исполнителем ограниченного набора инструкций, заданных человеком. Действия, которые может совершить автопилот, известны заранее. Или должны быть известны.

Мы не опасаемся того, что автопилот вдруг решит полететь в Дубай, а не в Париж. Мы можем бояться разве что того, что человек, который сделал автопилот, допустил какую-нибудь ошибку, из-за которой самолет изменит курс. Запомните этот факт: он пригодится нам в дальнейшем.

Рассмотрим теперь более сложный пример — современную систему машинного обучения. Она состоит из искусственных нейронных сетей, каждая из которых представляет собой множество отдельных простых элементов, связанных друг с другом. Каждый элемент — искусственный нейрон. В зависимости от величины входного сигнала, приходящего на него, он отправляет выходные сигналы разной величины на другие нейроны, которые к нему подключены. Похоже на корни растения.

Первый вопрос, который задают студенты и люди, которые только начинают разбираться в теме, звучит так: если все настолько просто, почему мы не можем предсказать поведение такой системы по всех случаях? Действительно, странно принять то, что мы каким-то образом соорудили сложную искусственную систему, понимаем в целом принципы ее устройства, однако не может предсказать ее поведение. Но мы действительно не можем этого сделать.

Дело в том, что для проверки всех возможных вариантов потребовалось бы слишком много времени. Математики по всему миру бьются над этой проблемой, но пока ответа нет. Существенно продвинуться в этом направлении лишь в этом году смогли ученые из Еврейского университета в Иерусалиме.

Чтобы показать масштаб задачи, приведу еще один пример. Представьте, что мы с вами делаем беспилотный автомобиль. На вход нейронной сети, которая им управляет, передается черно-белая картинка с камеры — размером, допустим, 16 на 16 точек. Это ужасно низкое разрешение. Никто не доверится машине с таким автопилотом, но посмотрите, сколько вариантов различных изображений существует даже для такого разрешения:

2 ^ (16 * 16) = 115 792 089 237 316 195 423 570 985 008 687 907 853 269 984 665 640 564 039 457 584 007 913 129 639 936

В этом числе — 79 цифр!

Разумеется, реальные беспилотные автомобили принимают и выдают куда больше информации. Но давайте ограничимся нашим примером и прикинем, сколько потребуется времени, чтобы проверить корректность работы нейросети в каждом из возможных вариантов.

Представим, что мы написали необходимые проверки и запускаем их с немыслимой скоростью в 100 млрд тестов в секунду. Тогда эта работа займет всего лишь:

2 ^ (16 * 16) / (100 * 10 ^ 9) / 3600 / 24 / 365 = 36 717 430 630 808 027 468 154 168 254 911 183 362 909 051 454 097 083 980 041,09 лет.

Для сравнения, ученые считают, что Вселенная существует 13,075 млрд лет. Это число на 48 порядков меньше того, что мы только что получили (кстати, для двухцветной картинки размером 8x8 точек нам потребовалось бы всего-навсего пять лет тестов).

То, что мы уже начали повсеместно использовать нейронные сети, но еще не поняли до конца, как они работают, — это очень странный и очень интересный факт.

Никто не может гарантировать, что самоуправляемая машина не решит резко ускориться, если увидит на дороге, например, кошку необычного окраса. Поэтому решения, принимаемые нейрсетями, проверяются на адекватность простыми аналитическими методами. То есть в ситуации со странной кошкой, которая взрывает мозг нейросети, аварию должен предотвратить старый добрый механический автомат.

Автор: Иван Новиков (Wallarm)

Поступить в МТИ