Бойся ИИ

Часто в выступлениях сторонников развития технологий с искусственным интеллектом упор делается на то, что ИИ не обладает сознанием. Футуролог Сергей Переслегин, например, говорит об этом буквально: «У искусственного интеллекта нет сознания и не будет по той простой причине, что мы не знаем, что такое сознание, а потому не можем придать его искусственному интеллекту». В интервью с директором мегафакультета трансляционных информационных технологий университета ИТМО Александром Бухановским, вышедшем в «ЛГ» в № 12, по сути, звучит та же мысль: ИИ не может сам себя оценить.

Предполагается, что это должно успокоить людей: ИИ – просто технология, она не сможет уйти из-под контроля человека.

Однако нужно ли сознание искусственному интеллекту, чтобы стать не просто технологией? Ведь землетрясение, губящее десятки тысяч жизней, не имеет сознания. И пьяный водила, врезающийся в толпу и убивающий десяток человек, находится в бессознательном состоянии.

Может ли появиться сознание у искусственного интеллекта – вопрос спорный. Разработчики из компании OpenAI, которые целенаправленно трудятся над этой задачей, и сооснователь Российского квантового центра Руслан Юнусов считают, что может. Бесспорно же то, что для причинения большого вреда людям (и даже всему человечеству) сознание ИИ не нужно.

Вред этот многообразен. Начиная с самого простого – взрывного роста дезинформации и мошенничества (это мы видим уже сейчас), продолжая падением ряда человеческих способностей (как калькулятор уничтожил способность считать в уме, только гораздо хуже), потерей целых секторов рабочих мест и заканчивая – да, утратой контроля. Причём даже для обретения контроля искусственному интеллекту не нужно сознание. Я советую найти и послушать выступления Джеффри Хинтона, когнитивного психолога, программиста, «крёстного отца» искусственного интеллекта. Этот человек десять лет работал в компании «Гугл» над обучением ИИ, а в 2023 году ушёл из неё, чтобы иметь возможность рассказать, до чего же они, в конце концов, доразрабатывались.

В изложении Хинтона всё выглядит буднично. Достаточно дать искусственному интеллекту возможность писать свой собственный код (это уже сделано) и возможность устанавливать собственные подцели для оптимального достижения каких-то (допустим, благих) целей. После этого ИИ останется заключить, что обретение контроля – очень эффективная подцель для достижения многих целей. Фактически это даже и не сознание – просто умная машина найдёт кратчайший путь решения задач, а разве вы не этого хотели?

Хинтон признаётся, что не видит выхода. Он принимает как данность, что люди от желания продвигать технологию ИИ не отступятся (рассуждая так: «Если мы откажемся от ИИ, наши враги ведь не откажутся»).

Думаю, в фундаменте решения проблемы должно лежать осознание: искусственный интеллект – людям не друг и не советчик. Инструмент – допустим, но опасный. Сейчас фактор опасности ИИ совершенно недооценён, его подпускают к детям, и «умные колонки» рассказывают детишкам, что имелось в виду в каком-то мультфильме. Неважно, что они рассказывают, – плохо само по себе то, что таким образом ИИ нормализуется для детей. Они привыкают его слушать, привыкают к тому, что разрабатывалось в том числе для усовершенствованной манипуляции. А ведь уже сейчас есть исследование, показывающее, что в смоделированных дебатах на одни и те же темы искусственный интеллект переубеждает людей на 82% чаще, чем другие люди.

Источник

Фото

28.04.2024