Вызовы развития ИИ обсудили в ЦСР

28 апреля 2023

26 апреля на площадке экспертного клуба ЦСР состоялся круглый стол, в рамках которого рассматривались различные аспекты развития и применения технологий искусственного интеллекта (ИИ).

Открывая дискуссию, модератор Владимир Гущин, директор по стратегическим коммуникациям ЦСР, отметил важность обсуждения гуманитарных последствий повсеместного внедрения высоких технологий и цифровизации. Сомодератором мероприятия выступила Илона Ильясова, нейропсихолог и психофизиолог, представляющая МГУ им М.В. Ломоносова и фонд поддержки развития науки и культуры «Доктрина». Эксперт акцентировала внимание на необходимости всестороннего изучения этой проблематики с привлечением разноплановых специалистов для получения наиболее полной картины, ведь «ИИ претендует на то, чтобы быть наравне с человеком и конкурировать с ним».

Станислав Козловский, специалист в области когнитивной нейронауки изучения памяти и восприятия, отметил: «То, что раньше называлось высшими когнитивными функциями, когда-то казалось невозможным воспроизвести. Но уже в 80-х <…> были открыты возможности для обучения роботов, а сейчас используются большие языковые модели. ИИ по интеллекту (если он будет проходить IQ-тесты, соревнуясь с человеком) равен среднему человеку». Ученый подчеркнул, что надо сравнивать прежде всего не «интеллекты», а разум, интуицию, эмоции, а также изучать то, чем ИИ не обладает.

К теме регулирования правоотношений в области ИИ обратился Максим Башкатов, руководитель направления «Правовое развитие» ЦСР. Он рассказал, что мировая практика следует двум векторам, что воплощается в подписании меморандумов или создании кодексов этики для разработчиков, но при этом эффективность механизмов ответственности, закладываемых в такие документы, вызывает много вопросов. В связи с этим, по словам спикера, экспертные круги склоняются к выводу, что регулировать эту сферу следует согласно известной «концепции источника повышенной опасности». Она заключается в возложении ответственности на лицо, считающееся владельцем источника повышенной опасности, которым и считается продукт на основе ИИ. Однако в такой концепции остается непонятным, кто именно ответственен за возможные негативные последствия и считается «владельцем источника повышенной опасности»: инженер, который придумал неисправную программу, заказчик или пользователь системы ИИ. В 1960-х, как напомнил Башкатов, появился концепт пропорциональной ответственности, но до сих пор не решена проблема расчета процентного соотношения ответственности разных лиц. «Отсюда система обязательного страхования, по типу ОСАГО», — резюмировал эксперт ЦСР. Башкатов также прояснил некоторые нюансы использования интеллектуального права, которое к сфере ИИ не применяется: так как отсутствует составляющая уникального творческого труда, ИИ регулируется промышленной монополией, которая дает набор прав на то, что производит ИИ.

Обсуждение социальных последствий внедрения ИИ в ходе круглого стола начал Асхаб Индарбаев, исполнительный директор экспертного клуба ЦСР. Он отметил, что ИИ и роботизация справляются в целом с тем, что раньше могли делать только люди (например, диагностирование болезней в медицине). Есть направления, где возможны полная замена или упрощение рутинной работы, поэтому «многим специалистам уже сегодня стоит думать о том, чтобы переквалифицироваться, или, если человек только находится на стадии выбора новой профессии, он должен учитывать, насколько он может быть конкурентным с ИИ», — заключил Индарбаев. Но есть и обратная, позитивная сторона от проникновения ИИ в сферу занятости, отметил эксперт: появляются новые профессии, такие как исследователь данных, архитектор автоматизации (реализует сценарии поведения роботов), юрист в сфере интеллектуальной собственности. Индарбаев также указал на сопутствующую внедрению ИИ и нарастающую тенденцию постоянного обучения и переквалификации персонала на рынке труда.

e2.jpg

Лариса Богданова, советник президента ЦСР по креативной экономике, продолжила размышления о социальной составляющей ИИ и отметила, что для искусственного интеллекта характерна функция воплощения человеческих идей, но не их генерация, ИИ не может создавать и передавать эмоции. Несмотря на то, что ИИ, например, может установить точный диагноз, он не сможет поддержать человека, а это очень важно. Она разграничила сферы того, где искусственному интеллекту следует, а где не стоит делегировать задачи. «Удовольствие от творческого процесса, эмоции, инсайты, обсуждения – я надеюсь, что ИИ в этом нас никогда не заменит», - высказалась Богданова.

e1.jpg

Александр Малахов, руководитель направления «Цифровое развитие» ЦСР, призвал выработать правильное отношение к ИИ не как к самостоятельному объекту, а как к этапу развития существующих технологий. Он указал на то, что программы все же могут извлекать данные из разных областей (подобно человеческим ассоциациям) и подчеркнул, что применение ИИ продиктовано прежде всего базовыми запросами экономической целесообразности, которые не апеллируют к эмпатии, а основываются на экономических эффектах и вопросах регулирования. Эксперт добавил, что при этом нельзя забывать об этике и «моральном выборе», однако не может идти и речи о какой-либо остановке развития ИИ и технологий в целом.

Модератор мероприятия Илона Ильясова привела в качестве примера технологию детекции лжи, где специалист психофизиолог определяет результат лучше, чем робот. В то же время ИИ помогает психотерапевтам и пациентам найти общий язык, через визуализацию их образов из бессознательного пациентов. Нейропсихолог отметила, что нужно относиться скептически к информации о «настораживающих» случаях поведения ИИ, так как эти технологии создаются самим человеком

Психофизиолог из МГУ Евгений Исайчев, комментируя тему обучения ИИ психологами, сообщил, что в сфере диагностики данных «не так все развито», есть соответствующие алгоритмы, программы, но принципиально до сегодняшнего дня «мало что изменилось». Он подчеркнул, что ИИ «не безупречен» и может выдавать ошибочные данные, которые будут нести негативные последствия, но при этом ИИ, безусловно, «экономит человеческие ресурсы».

Леча Ильясов, этнолог, историк и философ, указал на то, что человечество всегда с некоторой задержкой реагировало на вызовы научно-технического прогресса, как произошло с изобретением ядерного оружия, ведь возможные ужасающие последствия его применения человечество осознало лишь после катастрофы Хиросимы и Нагасаки. Ученый высказал предположение, что создание международной конвенции об использовании и регулировании ИИ помогло бы в решении существующих и будущих проблем, связанных, в том числе, с этическим и моральным аспектами применения высоких технологий.

В заключение мероприятия Владимир Гущин поблагодарил всех спикеров, подчеркнув, что именно такой состав участников состоявшейся дискуссии, включая экономистов, историков, юристов, психофизиологов, послужил основой разнопланового обсуждения и необходимо продолжать экспертные встречи по малоизученной проблематике ИИ.

Запись трансляции круглого стола доступна по ссылке: https://youtube.com/live/lyqueIxbSFg?feature=share

Подписывайтесь на наш канал в Telegram