Логические и методологические аспекты проблематики искусственного интеллекта (Часть 3)

АВТОР - Д.Ф. Алиев

Доктор философии в области бизнес-права (PhD), доктор делового администрирования в области финансов (DBA), кандидат экономических наук, первый проректор Федерального государственного бюджетного образовательного учреждения высшего образования «Российский государственный социальный университет».

 

ОСНОВНЫЕ ТЕНДЕНЦИИ И ПРОБЛЕМЫ В ОБЛАСТИ РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА, РОЛЬ УЧАСТИЯ ЛИДИРУЮЩЕГО УНИВЕРСИТЕТА В ПРОЕКТАХ ПО ИИ

Приведем тезисно основные соображения касательно присутствия Российского государственного социального университета (РГСУ) в сфере ИИ.

1. Цифровая экономика охватывает все новые сферы жизни и общественного производства. Оценки мировых годовых прямых инвестиций в развитие ИИ не опускаются ниже 75 млрд. $ и варьируются в пределах 100 млрд. $, а эффекты от ИИ уже составляют приблизительно 20% от прибыли;

2. Российские цифровые индустрии, при серьёзной заявленной поддержке федерального руководства, пока только частично присутствуют в области ИИ;

3. Отечественный рынок технологий ИИ очень амбициозен, весьма конкурентен, имеет высокий, но не сбалансированный потенциал развития при общей текущей слабости технологических и инфраструктурных ресурсов;

4. Несмотря на наличие конкуренции вхождение в рынок в условиях недостаточной зрелости некоторых аспектов ИИ вполне возможно при выверенной стратегии и наличии качественных перспективных проектов;

5. В российских потенциалах, в т.ч. в нашем научном наследии, имеются уникальные возможности теоретического и практического свойства, которые позволяет рассчитывать на прорывные достижения;

6. Исторически сложившееся предметное научно-образовательное содержание дисциплин в РГСУ вполне соответствует уровню задач позиционирования РГСУ не только в российской, но и в мировой науке и практике в области ИИ.

С учётом первых трех позиций сосредоточим своё внимание на трех последних, а точнее – проблемах, связанных с ними. Считаем, что на сегодняшний день невозможно представить весь спектр существующих проблем ИИ, поэтому следует ограничиться рассмотрением тех проблем, для решения которых целесообразно активное участие Университета. Укажем основные десять проблем.

1. Проблема исходных данных. Любая модель для своего практического применения требует данных. ИИ не является исключением, поскольку без нужного количества данных создать практически полезное решение с ИИ невозможно. Сегодня известны успешные примеры распознавания лиц при помощи чемпионской технологии FindFace российской компании NtechLab. Все подобные ИИ обучаются на датасетах с десятками и сотнями тысяч лиц, причем в данном случае это легко достижимо благодаря хорошему цифровому видеосигналу.

Однако результативность и качество моделей ИИ падает с возникновением проблем недостаточности, плохой подготовленности, недостоверности, нерелевантности данных. Так, в Новой Зеландии периодически возникают сложности с въездом в страну азиатских граждан, которых не распознаёт система, обученная на изображениях местных жителей преимущественно европейской внешности. Обучение идёт на исторических данных, на основе которых ИИ создает свою реальность, часто несоответствующую объективной, поэтому существуют проблемы с предиктивностью ИИ.

2. Проблема динамических данных. В отработке динамических данных ИИ бывает сложно и даже невозможно понять или отследить их логическую цепочку, в соответствии с которой система делает выводы. Существуют успешные проекты, как ИИ Deep Patient (США, 2015), который был обучен на данных о состоянии здоровья 700 тыс. человек. При проверке на новых пациентах система показала весьма хорошие результаты, включая обнаружение скрытых закономерностей, свидетельствующих о высокой вероятности появления каких-либо заболеваний, в том числе диагностировала шизофрению в случаях, когда «живые» медики не находили решения. Однако, имея все признаки «черного ящика», система принимала необъяснимые решения и не давала логических обоснований этих решений [4].

Кроме того, если такой проект как распознавание лиц российской системой FindFace требует больших денежных затрат (200 тысяч московских камер для потокового видео достаточного разрешения обошлись в 5 млрд.₽), принося требуемый предсказуемый результат, то для предсказания землетрясений или предотвращения логистических коллапсов необходимо решать множество дополнительных задач доступа, транспорта, синхронизации и тому подобных.

3. Проблема цифровой гигиены. За последние годы цифровизации практически во всех сферах жизни общества сформировались и существенные киберугрозы и проблемы сетевой безопасности, такие как неконтролируемые и несанкционированные утечки данных, противодействие которым даже в условиях статичных систем затруднительно, а в случае применения новых технологий ИИ может стать невозможным.

4. Проблема дезинформации и пропаганды. Сегодня ИИ не является интеллектом в общепринятом смысле и не способен различить правду и вымысел. Существуют отдельные способы и инструменты решения этой проблемы. Например, Facebook отключил в части фейканализа свои ИИ и нанял 10 тысяч модераторов только для оценивания «культурных нюансов публикаций». Когда об этом стало известно, ИТ-сообщество оценило такое решение как некий проигрыш. С марта этого года стало понятно, что причина решения заменить программное обеспечение живыми модераторами была, вероятно, совсем иной, но в целом такая переоценка не отменяет проблему дезинформации для перспектив внедрения ИИ.

5. Проблема оценочных суждений. Когда Facebook нанял на работу «модераторов правды», большинство участников рынка отнеслись к этому действию как одному из прочих неудачных экспериментов М. Цукерберга в так называемой борьбе с насилием и жестокостью. Однако оно объясняется тем, что ИИ сегодня, умея отчасти распознавать эмоции, не умеет их оценивать. При этом некоторые исследователи сомневаются в том, что это в целом решаемая задача. Нашу позицию на этот счёт приведём чуть позже, а здесь отметим, что эмоционально-основанные суждения искусственному интеллекту сегодня действительно не по возможностям. Более того, при современных технологиях создания и обучения в технологиях ИИ отражаются образ мышления и ценности их разработчиков. Часто у разработчиков недостаточно глубоких знаний в области психологии, социологии и других ключевых гуманитарных дисциплин, что провоцирует появление этических проблем. Таким образом, без коррекции базовых предпосылок и технологий ИИ не будет объективным и беспристрастным.

6. Проблема прав и ответственности. На сегодняшний день ИИ показывает весьма хорошие результаты в области медицины. ИИ-онколог Watson, разработанный IBM, с совпадением до 93% рекомендует протоколы лечения, аналогичные мнению лучших американский врачей для 13-ти разновидностей рака. Однако нельзя забывать о существовании достаточно большой вероятности ошибки, которая может послужить причиной смерти, а не излечения [5].

В ряде случаев объяснение отказу врачей делегировать решение медицинских вопросов искусственному интеллекту было в том, что мы озвучили как первую проблему - выборки данных, на которых обучали Ватсона, были американскими и ориентировались на их врачебные практики и методы. Однако глубинная проблема прав и ответственности связана и с неминуемыми ошибками ИИ, такими как трагедия в 2015 году на заводе Volkswagen, когда робот принял рабочего за автодеталь, ошибка интеллектуального ассистента Wallmart’а, повлекшая за собой сбой в производстве и поставках и 3-х кратный рост цен на детское питание в США (стране, в которой крайне критична зависимость от этого продукта), возможные аварии с участием робомобилей и многие другие.

Поэтому еще больше вопросов вызывает, кто будет нести ответственность за ошибки и последствия решений, принятых ИИ, кто и какие свои права готов делегировать искусственному интеллекту и на каких условиях и т.д.

7. Проблема доверия и контроля. Эта острая проблема ИИ психологического свойства корреспондирует с тремя первыми. Пользователи не обязаны понимать, как устроена та или иная технология искусственного интеллекта, кроме того, в некоторых случаях сами разработчики не могут объяснить, как функционирует их продукт. Поэтому при наличии возможности выбора люди скорее откажутся от использования «чёрного ящика».

Возможная вовлеченность в донастройки ИИ могла бы позитивно отразиться на доверии к ИИ, однако для того, чтобы обеспечить вовлеченность, необходимо иметь определенные цели и задачи, а главное – технологию с заданными прозрачными и прогнозируемыми функциями.

Проблема доверия тесно связана с проблемой контроля систем ИИ, к исследованию которой призывали еще Стивен Хокинг и нобелевский лауреат Фрэнк Вильчек из MIT [6]. Напомним, что, ссылаясь на попытки сориентировать ИИ на работу с намерениями людей против буквального выполнения команд, два президента Ассоциации развития искусственного интеллекта (AAAI) Том Диттерих и Эрик Хорвиц предупреждали о проблеме внезапного зарождения суперинтеллекта, которое может произойти независимо от воли разработчиков [7].

8. Проблема креатива и творчества. Искусственный интеллект на сегодняшний день лишь подражает человеку. Технологии ИИ уже давно используются в СМИ для написания спортивных новостей и криминальной хроники, однако задачи, связанные с творчеством, ими по-прежнему практически не выполняются.

Летом 2018-го известный ИИ-эксперт Джанель Шейн (Janelle Shane) из AI WEIRDNESS провела обучение общедоступного инструмента ИИ TextGenRNN из MIT-портфеля на датасете Kaggle, содержащем 231 657 американских шуток «тук-тук» от лучших артистов в жанре стендап-комедии. На рисунке 2 представлены некоторые результаты его отработки. Очевидно, что невозможно назвать эти шутки смешными.

Шутки искусственного интеллекта

Рис. 2. Выборка из результатов генерации шуток модели ИИ TextGenRN

Через три года Дж. Шейн протестировала версии чемпионской технологии GPT-3 – в частности продвинутую (DaVinci), базовую (Curie) и облегчённую (Ada), поручив им производство шуток к 1-му апреля с учетом КОВИДных ограничений. Результаты представлены на рисунках 3 и 4 [8].

Рис. 3. Выборка из результатов генерации шуток версии DaVinci GPT-3

Рис. 4. Выборка из результатов генерации шуток версий Curie и Ada GPT-3

В ходе анализа восьми проблем, рассмотренных выше, обнаруживаем ещё одну комплексную проблему.

 9. Проблема детерминации ИИ

Современный технологический уровень цифровизации и автоматизации процессов уже позволяет выполнять множество функций, которые ранее выполнялись только с применением человеческого ресурса, включая тестирование, прогнозирование, операции по расчетам, решение подчинённых оборонных задач и многие другие. Несмотря на то, что ни одной системе не удалось пройти «кофейный тест» С. Возняка (робот должен войти в незнакомую квартиру и приготовить кофе, выполнив все сопутствующие задачи), все совершенствующийся ИИ представляет собой угрозу для рынка труда. Так, еще 4 года назад в Великобритании предсказывали, что до конца 2020-х гг. ИИ-автоматизация сократит 4 млн. рабочих мест в частном секторе и 850 тыс. – в государственном [9].

Не стоит забывать, что указанная социально-экономическая тенденция наблюдается на фоне отсутствия четкой детерминированности понятия искусственного интеллекта. Основатель образовательной платформы Курсера Эндрю Ын уверен, что автоматизировать системами ИИ можно только те интеллектуальные задачи, с которыми человек справляется быстрее секунды. Во внеэкспертном обществе долгие годы маркером интеллекта была игра в шахматы. Сегодня ПК выигрывает у мировых гроссмейстеров, при этом даже лучшие чат-боты и голосовые ассистенты в осмысленных разговорах не показывают результатов более высоких, чем пятилетний ребёнок.

Представляется, что и сегодня мы можем говорить лишь о перспективе автоматизации рутинных операций. В этом смысле требования к компетенциям специалистов изменятся. С внедрением новых ИИ-систем будут требоваться специалисты, незаменимые на каждом этапе – от обучения до сопровождения и текущей деятельности. Так ИИ, подбирающему кадры, нужен консультант, системе рекомендательного сервиса – апдейтер, а военному комплексу - командир. Этот список можно продолжать до полного охвата всех существующих и перспективных систем искусственного интеллекта. При этом можно предполагать, что объем занятости в новых профессиях, связанных с применением ИИ, будет существенно ниже объема, сокращенного по причине внедрения новых инструментов ИИ.

Таким образом, описание всего круга проблем позволяет делать следующие выводы:

  • необходимо четко разграничивать понятия искусственного интеллекта и искусственного сознания;
  • на текущем технологическом уровне позитивные перспективы есть только у сбалансированного альянса искусственного интеллекта и человеческого;
  • для обеспечения позитивной динамики развития области ИИ необходимо эффективное решение прикладных вопросов применения уже созданных систем;
  • чтобы достичь эмпатии в исполнении ИИ, его суждениях и, возможно, отношениях с ним, необходимо обратиться к исходным позициям, движущим силам и механизмам ИИ, а также к глубинным мотивирующим факторам его развития.

Четвёртая позиция является одновременно и отражением десятой проблемы – проблемы аппетита, означающей, какой путь выберет человечество в точке бифуркации – искусственный интеллект или искусственное сознание.

Заказать репортаж