Задача оптимизации процесса расследования за счёт обращения к достижениям научно-технического прогресса не нова: уже достаточно давно применяются на практике и научно описаны средства компьютеризации процесса расследования, в основу которых положены такие процессы, как алгоритмизация, типизация и пр.
Схожие процессы мы наблюдаем и сегодня, но на гораздо более высоком уровне. Стремительное развитие технологий и ускорение процессов цифровизации всех сфер жизни общества поставило процесс расследования преступлений перед новыми вызовами и (что не менее важно!) опасностями и рисками, которые связываются с внедрением систем, базирующихся на алгоритмах искусственного интеллекта (ИИ). Современные проблемы использования новых технологий носят социальный и этический характер.
В Национальной стратегии развития искусственного интеллекта на период до 2030 года (утв. Указом Президента РФ 10.10.2019 № 490) (далее - Национальная стратегия) отдельно упомянуто, что разработка этических правил взаимодействия человека с ИИ является одним из основных направлений работы, связанной с развитием и внедрением технологий ИИ.
Сложность конструирования интеллектуальных систем с «вшитыми» в них этическими компонентами заключается в том, что описать этические стандарты применения ИИ единообразно (!) не представляется возможным. Более того, ситуацию усугубляет тот факт, что сами эти стандарты могут существенно различаться в зависимости от государств, регионов, их культурных особенностей, традиций и даже менталитета. Мировому сообществу важно договориться о том, что они понимают под «этичным применением ИИ», «этичным поведением интеллектуальных систем». Это особенно важно в контексте трансграничной преступности, учитывая имеющиеся недостатки алгоритмов ИИ.
Кроме того, внедрение систем ИИ в процесс расследования обусловлено также необходимостью обработки больших объемов персональных данных, в частности данных биометрических, являющихся высокочувствительными данными. Несоблюдение повышенных мер безопасности при сборе, обработке и хранении массивов таких данных может вызвать грубейшие нарушения конституционных прав граждан, относящихся к сфере личной жизни и здоровья. Стоит также учитывать такое явление как "избыточный сбор данных" и связанные с ним угрозы утечки и иного неправомерного использования личных данных граждан.
Анализируя этическое измерение использования ИИ в процессе расследования, мы должны тщательным образом изучить механизм принятия конкретного решения машиной, поскольку цена ошибки слишком велика: на кону – человеческие судьбы. Мы должны доверять интеллектуальной системе, поэтому система должна быть предельно прозрачной. Как указано в уже упомянутой выше Национальной стратегии, «отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта и может стать препятствием для их развития». Мне думается, что под этическими аспектами применения ИИ в процессе расследования мы можем понимать принятие интеллектуальной системой справедливого, объективного и взвешенного решения, что в целом может охватывать этика.
Чтобы избежать утраты лимита доверия к системам ИИ, нужно устранить недостатки в их работе (имеющие прямой выход к этическим вопросам!) и в первую очередь предвзятость алгоритмов ИИ.
Интеллектуальная система осуществляет принятие решения и обучается на основе тех данных, которые загрузил в систему человек и которые она собрала сама (как в случае с системами видеонаблюдения, подключенными к интеллектуальным системам распознавания лиц), посему даже несмотря на то, что технически машина может анализировать тысячи различных комбинаций данных и предлагать альтернативные варианты решений, она, тем не менее, не лишена пороков. Так, исследователи сообщают, что программное обеспечение, используемое для идентификации, распознавания или анализа лица, работает по-разному в зависимости от возраста, пола и этнической принадлежности человека, которого он идентифицирует. Алгоритмы могут работать на основе различных демографических данных, поэтому предвзятость в распознавании лиц может усилить предубеждения общества, в частности, к пользе и значению систем видеонаблюдения (Директива 3/2019 «Об обработке персональных данных посредством видеоустройств» от 29 января 2020).
Помимо этого, мыслимы ситуации, когда в базах данных, на основе которых обучаются системы ИИ, могут отсутствовать необходимые данные, стратегически важные для принятия решения, если мы имеем дело не с обычным, а экстраординарным преступлением. Можно привести аналогию с использованием систем ИИ в медицинской сфере: если система будет обучаться на данных, в которых отсутствуют примеры каких-то редких заболеваний (по причине, допустим, отсутствия пациентов с такой патологией ранее) или иная важная информация, система будет «хромать»: будут ошибки в реальной клинической практике, это в конце концов приведет к дискриминации или предвзятости. Абсолютно та же схема работает и в контексте противодействия преступности.
В этом смысле возникает вопрос о том, способна ли интеллектуальная система успешно решать нелинейные задачи и может ли человек допустить полностью автоматизированное принятие решения. Полагаю, что на оба вопроса следует однозначно ответить отрицательно в том числе по следующей причине: для принятия существенных решений по делу (пусть даже тактических) важны не только блестящее знание законодательства, тщательная обработка поступающей информации, но и сугубо «человеческие» качества, которые невозможно передать машине, как, например, следственная интуиция, а также знание человеческой психологии. К тому же интеллектуальные системы – «существа» не эмпатичные, в силу этого не хотелось бы доверять им производство вербальных следственных действий (несмотря на то, что они могут определить эмоциональное состояние тактического противника путем анализа невербальных признаков поведения)
Системы, основанные на использовании алгоритмов ИИ, можно использовать для конструирования моделей поведения конкретного человека (как ретроспективных (особенно важных на первоначальном этапе расследования, когда необходимо составить общее представление о фактической картине расследуемого события), так и перспективных (что связано, в частности, с необходимостью пресечения действий по сокрытию следов преступления, оказанию неправомерного воздействия на иных участников уголовного судопроизводства путем, например, анализа социальных связей участников расследуемого события), а также для разработки прогнозов относительно совершения преступлений в определенное время и в определенном месте и грамотного их пресечения. Хотя и здесь не всё так гладко: зарубежная практика показывает, например, что даже если все переменные, необходимые для успешного расчета повышенной вероятности взлома квартиры, будут проанализированы, все необходимые меры со стороны полиции, должны быть предприняты в тот же день, чтобы предотвратить совершение преступления.
В иностранных правопорядках серьезно задумываются об ограничении использования систем, приводящих к дискриминации лиц по признакам связанным, в частности, с биометрическими данными. В частности, статьей 11 Регламента 2019/680 (регулирующего на уровне Европейского союза обработку персональных данных в целях предупреждения, расследования, выявления преступлений), установлен запрет на профилирование (под которым понимается любая форма автоматизированной (!) обработки персональных данных, состоящая из использования персональных данных для оценки определенных личных аспектов, относящихся к физическому лицу, в частности, для анализа и прогнозирования его личных предпочтений, интересов, надежности, поведения (!), местонахождения), приводящее к дискриминации физических лиц на основании специальных категорий персональных данных, указанных в статье 10 Регламента 2019/680 (в частности, биометрических данных с целью однозначной идентификации физического лица). Системы видеонаблюдения, задействованные в прогнозировании преступных действий, подпадают под описание в норме, следовательно, есть определенные проблемные места, которые напрямую связаны с принятием обоснованного и безупречного с точки зрения закона и морали решения.
С учетом описания указанных проблемных мест систем ИИ напрашивается вопрос о значении информации (криминалистически значимой информации), полученной из подобных источников: может ли она выступать доказательственной информацией по делу или может расцениваться максимум в качестве ориентирующей, направленной на корректирование тактики производства отдельных следственных действий и тактики расследования в целом. Думаю, что стоит относиться к таким данным с определенной долей здравого сомнения и использовать их только в вспомогательных, ориентирующих целях.
Внедрение систем ИИ, безусловно, призвано облегчить и ускорить процесс принятия важных процессуальных и тактических решений за счёт автоматизации этого процесса. Системы ИИ могут взять на себя существенную часть интеллектуальной работы ввиду гигантских вычислительных мощностей, которыми не располагает человеческий мозг (если руководствоваться тем объемом знаний о нашем мозге, которого достигла современная наука!). Но за общий подход следует взять следующий: мы можем обращаться к современным технологиям (ИИ) расследования преступлений, но использовать их результаты необходимо наряду с другими источниками доказательственной и иной ориентирующей информации, никак иначе.
P.S. Частое обращение человека за помощью к своему цифровому «помощнику» чревато усугублением клиповых начал в мышлении конкретных практических работников, что в отдаленной перспективе может повлечь за собой принятие подобно алгоритмам ИИ типизированных (= неэтичных!) решений, не основанных на тщательном исследовании фактических обстоятельств конкретного дела. Клаузулу «мыслить как преступник» мы ещё как-то сможем принять (к тому же рефлексивное мышление ещё никто не отменял), но использование формулы «мыслить как машина» вряд ли переживем.
P.P.S. За рамками моего ответа остались вопросы ответственности за ошибки, допущенные интеллектуальной системой, содержащие в себе, несомненно, большой этический "потенциал"