Кто будет отвечать за ошибки «умных» роботов

6263
0
62630
Источник: Версия

Российские власти приняли решение о необходимости обновления стратегии развития искусственного интеллекта (ИИ). Отношение к ИИ в обществе в последнее время стало резко меняться. А вот Илон Маск, например, призвал коллег поставить на стоп-паузу дальнейшее развитие технологии, поскольку, по его мнению, это принесет непоправимые последствия.

«В логике новой редакции документа будет сформирован новый федеральный проект, который станет частью нового нацпроекта «Экономика данных». Минэку, Минцифры и Минфину предстоит к 15 апреля определить перечень показателей» – сообщает официальный telegram-канал Правительства России.

С одной стороны, ИИ, безусловно, благо, он призван значительно облегчать нашу жизнь, с другой, если доверять ему слишком много функций, человек может оказаться совершенно беззащитен, что повлечет за собой серьезные угрозы, в том числе и для жизни.

Когда-то, на заре создания этой замечательной технологии, способной имитировать мыслительные функции мозга человека и получать данные, сопоставимые с результатами его интеллектуальной деятельности, цифровую технологию нарекли «интеллектом», это была некая романтизация ИИ.

Кстати, в наши дни аналогичное происходит с нашумевшей «зеленой повесткой» – сначала, как о жене цезаря, о ней писали только хорошее. Теперь говорят уже о том, что это не панацея и традиционные источники энергии совсем не заменит.

До сих пор СМИ и ТВ с восхищением рассказывается о будущем, когда ИИ окончательно проникнет во все сферы нашей жизни – и кадры в правительство подбирать начнет, и учить нас будет, и лечить, книги писать…

Только, зачастую, умалчивается, что неизбежны серьезные ошибки, сбои в работе искусственного интеллекта. Процент погрешностей будет расти при размахе его внедрения.

Например, уже значительно растет число ДТП с участием беспилотных электромобилей, все чаще происходят случаи распространения нежелательной информации чат-ботами, блокировки полезных информ-каналов и многое другое.

Специалисты правового агентства «Марков, Злобин и партнеры» отмечают, что отсутствие в России четкого регулирования сферы технологии ИИ уже становится большой проблемой для текущей юридической практики.

Изначально, считают юристы, бомба заложена в самом названии – интеллект.

«Интеллект, разум – это качества человека, связаны они прежде всего с возможностью понимать суть. Очеловечивать же цифровую программу, которая по заданным алгоритмам и стандартам сканирует базы данных и выдает стандартное решение, не понимая сути – неверно», – отмечает управляющий партнер правового агентства Андрей Злобин.

Называть комплекс технологий интеллектом, пусть и с оговоркой – «искусственный», значит, подменять понятия. Когда-то в древности охотники и скотоводы одухотворяли свое оружие и инструменты труда. В 21 веке это кажется глупым – очеловечивать роботизированные технологии, называя их, например, человеческими именами.

Наши дети перестают видеть границы живого и мертвого, общаясь с электронными игрушками, которые в целях маркетинга преподносятся, как «живые и умные».

Пожилые люди не могут различать, кто говорит с ними по телефону – человек или машина.

Обществу пора, наконец, между Человеком и аморфным миром роботов и машин провести разделительную грань – не называть ИИ «интеллектом», человеческими именами.

Чат-бот, робот, голосовой помощник с первый секунд должен себя идентифицировать, называя свой регистрационный номер.

Автомобили когда-то тоже были прорывом в будущее. Но, признав их источником повышенной опасности, каждому присвоили регистрационный номер, видимый для всех, создали дорожные правила и дорожную инфраструктуру, и, главное, предусмотрели меры ответственности водителей и пассажиров.

В такие же понятные для всех правовые рамки пора упаковать искусственный интеллект.

Наталья Апостолова, доктор юридических наук, профессор кафедры процессуального права Южно-Российского института управления, филиала Российской академии народного хозяйства и государственной службы при Президенте РФ, полагает, что за несоблюдение нормативно установленных требований безопасности и других принципов в сфере создания и применения ИИ, а также за противоправные, тем более, за общественно опасные, последствия деятельности автономного искусственного интеллекта должен нести ответственность человек.

«За ошибку искусственного интеллекта, зачастую, некого наказать. Отсюда множество сложных этических и юридических вопросов», – отмечает Александр Марков, соучредитель правового агентства «Марков, Злобин и партнеры».

За допущенные ошибки раньше отвечало конкретное должностное лицо, теперь исполнители услуг стараются спрятаться за искусственный интеллект, виновного найти трудно.

Юристам необходимо устанавливать факт причинения вреда действиями или бездействиями автономного «умного» робота, а потом установить и дать юридическую квалификацию действиям или бездействиям программиста, производителя, пользователя, иного лица, а также наличие либо отсутствие причинно-следственной связи между действиями или бездействиями этих лиц и причинившими вред действиями-бездействиями автономного ИИ.

Уже неоднократно специалистами и правоведами выдвигались предложения по принятию федерального закона, регулирующего правоотношения в сфере технологии ИИ.

Коварность этого, так называемого, «искусственного интеллекта», в том, что, допустим, задачи для его обучения могут быть представлены с заведомой или случайной ошибкой, и в этом случае ИИ будет выдавать неадекватный результат.

Представители силовых структур небезосновательно опасаются, что нейросети смогут обходить защитные программы и активно помогать злоумышленникам, а замена человека технологиями ИИ в некоторых областях является не только нецелесообразной, но и опасной.

Вопреки большому желанию причастных к разработке искусственного интеллекта лиц снять с себя ответственность за возможные негативные последствия применения ИИ, делать этого ни в коем случае нельзя, настаивают правоведы. Безответственность в таком жизненно важном для людей деле неминуемо приведет к произволу и другим непредсказуемым последствиям.

Опасения насчет того, что установить и доказать «прямую связь между действиями производителя или пользователя и тем вредом, который причинил робот, крайне сложно» имеют под собой основания, считает, доктор юридических наук Наталья Апостолова.

Но вместе с тем это вполне посильная задача. Определенную причинно-следственную связь на уровне экспертных исследований выявить и доказать можно при соблюдении закрепленных в «Национальной стратегии развития искусственного интеллекта на период до 2030 года» принципах безопасности и прозрачности.

Недавняя выпускница Российского экономического университета имени Г.В. Плеханова, 23-летняя Анна Сидорова, сотрудник московской юридической компании «Правовые технологии 770», призналась в разговоре с автором статьи, что беззащитность человека перед машиной была самой горячей темой среди студенческого и экспертного сообщества.

Молодое поколение вполне осознает, что это один из важных вызовов, на который, предстоит нам ответить.

23.11.2023

Материалы по теме

Кто будет отвечать за ошибки «умных» роботов