Чем опасно внеДрение технологий с искусственным интеллектом

Почти по Орвеллу

В Китае между тем уже вовсю внедряется система социальных баллов, а проще говоря, тотальной слежки за гражданами с помощью искусственного интеллекта. Все, что делает китаец, фиксируется камерами с распознаванием лиц и десятками баз данных. За хорошее поведение начисляют баллы, за плохое – снимают. Принцип системы: люди с высокими результатами будут жить хорошо, а тем, кто уйдет в минус, не поздоровится. Могут запретить занимать определенные должности, не продать билеты на поезд или на самолет. Некоторые эксперты приходят в ужас, когда начинают анализировать, к каким результатам приведет эта умная «орвелловская» система в будущем. При этом известно, что даже малейшие просчеты в проектировании интеллектуальных систем могут приводить к катастрофическим последствиям уже сегодня.

Так выяснилось, что из-за ошибочных показаний датчика и системы контроля полета самолеты Boeing-737 MAX могут сами неожиданно уходить в пике. Получив неверные вводные об обтекании крыла потоком воздуха, самолеты автоматически опускают нос вниз. Этот факт честно признали в компании после того, как Boeing-737 MAX-8 индонезийской авиакомпании Lion Air потерпел крушение в октябре 2018 года над морем у западного побережья острова Ява. На борту находились 189 человек, все погибли

В Аризоне беспилотное авто от Uber сбило женщину, переходившую улицу в неположенном месте. В кресле водителя находился пилот-человек, но он не успел остановить машину. Эта авария стала первым смертельным ДТП с участием автомобиля, имеющего третий уровень автономности. Оказалось, лазерные радары машины распознали пешехода за целых 5,6 секунды до аварии. Но алгоритм решил не снижать скорость и начал экстренное торможение только за 0,2 секунды до столкновения.

Как переиграть роботов?

Все эти факты, впрочем, повод не для развития массовой паранойи, а как раз для того, чтобы человечество, насколько это возможно, действовало на опережение, предугадывало возможные опасности, которые могут возникнуть при внедрении технологий с использованием искусственного интеллекта. Об этом сегодня в голос говорят эксперты. Ведь прогресс останавливать глупо. Причем риски не только, и даже не столько, технологические, сколько юридические, правовые и этические. Последний аспект особенно важен при разработке систем управления беспилотными автомобилями. Какой алгоритм, скажите, нужно заложить разработчикам в гипотетической ситуации, когда на дороге перед машиной неожиданно появляется старушка, а с другой стороны – маленький мальчик? То есть проблема выбора состоит в том, что кто-то неизбежно должен пострадать

В реальной жизни исход этой конфигурации на дороге зависит от индивидуальных физиологических особенностей водителя, его реакции – словом, того, как сработает человеческий мозг в этой экстремальной ситуации. И при любом ужасе она разрешается «естественным» путем, но вот простят ли искусственному интеллекту смерть кого-то из участников движения? И как вообще интеллектуальной системе решить эту заведомо неразрешимую задачу? Заложить в алгоритм действия частотность поведения водителей в таких ситуациях? Пожертвовать старушкой? И кому на откуп дать решение этой задачи, при которой по сути будут вершиться судьбы людей. Отдельно взятому коллективу разработчиков? И как потом быть с юридическими последствиями этой дорожной дилеммы? Вопросов масса

Несколько дней назад в рамках одного уважаемого форума состоялась очень злободневная и интересная дискуссия «Этические проблемы применения цифровых технологий: как искать решение?». Ее модератор – академический директор Центра подготовки руководителей цифровой трансформации ВШГУ РАНХиГС Мария Шклярук – представила аналитический доклад, подготовленный на основе работ десятков отечественных экспертов в области новых интеллектуальных систем. В нем как раз содержится вдумчивый подход к осмыслению отношения людей и роботов.

Показательно, что эксперты высказывают различные подходы к принципам установления ответственности за действия ИИ. От полного освобождения кого-либо от ответственности, по аналогии с обстоятельствами непреодолимой силы до ответственности конкретного субъекта: производителя, разработчика, владельца, пользователя и т.д. И вплоть до личной ответственности роботов при условии наделения их правами и обязанностями, статусом электронной личности.

Впрочем, эта тема остается сегодня остро дискуссионной: и ученые, и разработчики, вероятно, не скоро придут к единому решению.