Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Насколько этично использовать искусственный интеллект в расследовании преступлений?

ЮриспруденцияИскусственный интеллектКриминалистика
Анонимный вопрос
Молодые учёные МГУ
  · 4,4 K
Первый
Выпускник Юридического факультета МГУ имени М.В.Ломоносова   · 16 авг 2021

Задача оптимизации процесса расследования за счёт обращения к достижениям научно-технического прогресса не нова: уже достаточно давно применяются на практике и научно описаны средства компьютеризации процесса расследования, в основу которых положены такие процессы, как алгоритмизация, типизация и пр.

Схожие процессы мы наблюдаем и сегодня, но на гораздо более высоком уровне. Стремительное развитие технологий и ускорение процессов цифровизации всех сфер жизни общества поставило процесс расследования преступлений перед новыми вызовами и (что не менее важно!) опасностями и рисками, которые связываются с внедрением систем, базирующихся на алгоритмах искусственного интеллекта (ИИ). Современные проблемы использования новых технологий носят социальный и этический характер.

В Национальной стратегии развития искусственного интеллекта на период до 2030 года (утв. Указом Президента РФ 10.10.2019 № 490) (далее - Национальная стратегия) отдельно упомянуто, что разработка этических правил взаимодействия человека с ИИ является одним из основных направлений работы, связанной с развитием и внедрением технологий ИИ.

Сложность конструирования интеллектуальных систем с «вшитыми» в них этическими компонентами заключается в том, что описать этические стандарты применения ИИ единообразно (!) не представляется возможным. Более того, ситуацию усугубляет тот факт, что сами эти стандарты могут существенно различаться в зависимости от государств, регионов, их культурных особенностей, традиций и даже менталитета. Мировому сообществу важно договориться о том, что они понимают под «этичным применением ИИ», «этичным поведением интеллектуальных систем». Это особенно важно в контексте трансграничной преступности, учитывая имеющиеся недостатки алгоритмов ИИ.

Кроме того, внедрение систем ИИ в процесс расследования обусловлено также необходимостью обработки больших объемов персональных данных, в частности данных биометрических, являющихся высокочувствительными данными. Несоблюдение повышенных мер безопасности при сборе, обработке и хранении массивов таких данных может вызвать грубейшие нарушения конституционных прав граждан, относящихся к сфере личной жизни и здоровья. Стоит также учитывать такое явление как "избыточный сбор данных" и связанные с ним угрозы утечки и иного неправомерного использования личных данных граждан.

Анализируя этическое измерение использования ИИ в процессе расследования, мы должны тщательным образом изучить механизм принятия конкретного решения машиной, поскольку цена ошибки слишком велика: на кону – человеческие судьбы. Мы должны доверять интеллектуальной системе, поэтому система должна быть предельно прозрачной. Как указано в уже упомянутой выше Национальной стратегии, «отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта и может стать препятствием для их развития». Мне думается, что под этическими аспектами применения ИИ в процессе расследования мы можем понимать принятие интеллектуальной системой справедливого, объективного и взвешенного решения, что в целом может охватывать этика.

Чтобы избежать утраты лимита доверия к системам ИИ, нужно устранить недостатки в их работе (имеющие прямой выход к этическим вопросам!) и в первую очередь предвзятость алгоритмов ИИ.

Интеллектуальная система осуществляет принятие решения и обучается на основе тех данных, которые загрузил в систему человек и которые она собрала сама (как в случае с системами видеонаблюдения, подключенными к интеллектуальным системам распознавания лиц), посему даже несмотря на то, что технически машина может анализировать тысячи различных комбинаций данных и предлагать альтернативные варианты решений, она, тем не менее, не лишена пороков. Так, исследователи сообщают, что программное обеспечение, используемое для идентификации, распознавания или анализа лица, работает по-разному в зависимости от возраста, пола и этнической принадлежности человека, которого он идентифицирует. Алгоритмы могут работать на основе различных демографических данных, поэтому предвзятость в распознавании лиц может усилить предубеждения общества, в частности, к пользе и значению систем видеонаблюдения (Директива 3/2019 «Об обработке персональных данных посредством видеоустройств» от 29 января 2020).

Помимо этого, мыслимы ситуации, когда в базах данных, на основе которых обучаются системы ИИ, могут отсутствовать необходимые данные, стратегически важные для принятия решения, если мы имеем дело не с обычным, а экстраординарным преступлением. Можно привести аналогию с использованием систем ИИ в медицинской сфере: если система будет обучаться на данных, в которых отсутствуют примеры каких-то редких заболеваний (по причине, допустим, отсутствия пациентов с такой патологией ранее) или иная важная информация, система будет «хромать»: будут ошибки в реальной клинической практике, это в конце концов приведет к дискриминации или предвзятости. Абсолютно та же схема работает и в контексте противодействия преступности.

В этом смысле возникает вопрос о том, способна ли интеллектуальная система успешно решать нелинейные задачи и может ли человек допустить полностью автоматизированное принятие решения. Полагаю, что на оба вопроса следует однозначно ответить отрицательно в том числе по следующей причине: для принятия существенных решений по делу (пусть даже тактических) важны не только блестящее знание законодательства, тщательная обработка поступающей информации, но и сугубо «человеческие» качества, которые невозможно передать машине, как, например, следственная интуиция, а также знание человеческой психологии. К тому же интеллектуальные системы – «существа» не эмпатичные, в силу этого не хотелось бы доверять им производство вербальных следственных действий (несмотря на то, что они могут определить эмоциональное состояние тактического противника путем анализа невербальных признаков поведения)

Системы, основанные на использовании алгоритмов ИИ, можно использовать для конструирования моделей поведения конкретного человека (как ретроспективных (особенно важных на первоначальном этапе расследования, когда необходимо составить общее представление о фактической картине расследуемого события), так и перспективных (что связано, в частности, с необходимостью пресечения действий по сокрытию следов преступления, оказанию неправомерного воздействия на иных участников уголовного судопроизводства путем, например, анализа социальных связей участников расследуемого события), а также для разработки прогнозов относительно совершения преступлений в определенное время и в определенном месте и грамотного их пресечения. Хотя и здесь не всё так гладко: зарубежная практика показывает, например, что даже если все переменные, необходимые для успешного расчета повышенной вероятности взлома квартиры, будут проанализированы, все необходимые меры со стороны полиции, должны быть предприняты в тот же день, чтобы предотвратить совершение преступления.

В иностранных правопорядках серьезно задумываются об ограничении использования систем, приводящих к дискриминации лиц по признакам связанным, в частности, с биометрическими данными. В частности, статьей 11 Регламента 2019/680 (регулирующего на уровне Европейского союза обработку персональных данных в целях предупреждения, расследования, выявления преступлений), установлен запрет на профилирование (под которым понимается любая форма автоматизированной (!) обработки персональных данных, состоящая из использования персональных данных для оценки определенных личных аспектов, относящихся к физическому лицу, в частности, для анализа и прогнозирования его личных предпочтений, интересов, надежности, поведения (!), местонахождения), приводящее к дискриминации физических лиц на основании специальных категорий персональных данных, указанных в статье 10 Регламента 2019/680 (в частности, биометрических данных с целью однозначной идентификации физического лица). Системы видеонаблюдения, задействованные в прогнозировании преступных действий, подпадают под описание в норме, следовательно, есть определенные проблемные места, которые напрямую связаны с принятием обоснованного и безупречного с точки зрения закона и морали решения.

С учетом описания указанных проблемных мест систем ИИ напрашивается вопрос о значении информации (криминалистически значимой информации), полученной из подобных источников: может ли она выступать доказательственной информацией по делу или может расцениваться максимум в качестве ориентирующей, направленной на корректирование тактики производства отдельных следственных действий и тактики расследования в целом. Думаю, что стоит относиться к таким данным с определенной долей здравого сомнения и использовать их только в вспомогательных, ориентирующих целях.

Внедрение систем ИИ, безусловно, призвано облегчить и ускорить процесс принятия важных процессуальных и тактических решений за счёт автоматизации этого процесса. Системы ИИ могут взять на себя существенную часть интеллектуальной работы ввиду гигантских вычислительных мощностей, которыми не располагает человеческий мозг (если руководствоваться тем объемом знаний о нашем мозге, которого достигла современная наука!). Но за общий подход следует взять следующий: мы можем обращаться к современным технологиям (ИИ) расследования преступлений, но использовать их результаты необходимо наряду с другими источниками доказательственной и иной ориентирующей информации, никак иначе.

P.S. Частое обращение человека за помощью к своему цифровому «помощнику» чревато усугублением клиповых начал в мышлении конкретных практических работников, что в отдаленной перспективе может повлечь за собой принятие подобно алгоритмам ИИ типизированных (= неэтичных!) решений, не основанных на тщательном исследовании фактических обстоятельств конкретного дела. Клаузулу «мыслить как преступник» мы ещё как-то сможем принять (к тому же рефлексивное мышление ещё никто не отменял), но использование формулы «мыслить как машина» вряд ли переживем.

P.P.S. За рамками моего ответа остались вопросы ответственности за ошибки, допущенные интеллектуальной системой, содержащие в себе, несомненно, большой этический "потенциал"

Эдуард, свяжитесь со мной в ТГ по поводу вашей замечательной победы в конкурсе на Кью @euliania. Спасибо
Студентка МГУ им. М. В. Ломоносова  · 30 авг 2021
В современном мире активно развиваются технологии, развивается искусственный интеллект. Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами инте... Читать далее
Вероника, свяжитесь со мной в ТГ по поводу вашей замечательной победы в конкурсе на Кью @euliania. Спасибо
Юрист в сфере банкротства, основная специализация - оспаривание сделок и ответственность к...  · 23 июл 2021  ·
ReadInLaw
Если в контексте данного вопроса, под расследованием преступления, понимается сбор и формирование доказательной базы, с целью передачи дела в суд, то глобально ничего и не поменяется. Сейчас сбор доказательств осуществляется с использованием компьютерных технологий, преступника могут выслеживать в социальных сетях, изучать его активность в сети, использовать систему... Читать далее
О юриспруденции пишу в своём Telegram канале. Подписывайтесь Перейти на t.me/ReadInLaw
Я думаю, при всей "объективности" допроса с помощью робота- видеозапись допроса, анализ фактов и доказательств... Читать дальше
Юриспруденция. Работаю в правоохранительных органах на руководящей должности. Интересы:...  · 17 июл 2021
Современная преступность очень активно использует самые передовые технологии, очевидно и ожидаемо, что правоохранительные органы должны отвечать адекватно и в том числе путем внедрения в практику достижений в области искусственного интеллекта. Однако внедрение ИИ поднимает множество этнических вопросов. Банально, но всеобщий охват видеокамерами и технологии распознания... Читать далее
1 эксперт согласен
Я скептически отношусь к понятию искусственный интеллект ассоциируя его скорее со сверхсложным программируемым каль... Читать дальше
Первый
Для того, чтобы ответить на любой вопрос, нужно, для начала, понять его существо. Из вопроса следует, что ИИ может лишь использоваться в расследовании, но он, естественно, его не осуществляет сам по себе. Расследование осуществляет человек - следователь. И он же является оператором ИИ, так как он его использует. То есть мы говорим не о каком-то андрогинном роботе-следова... Читать далее
Настораживает, что признав за машиной свойство 'обладать Интеллектом' вы оставляете критерий на усмотрение нек.абст... Читать дальше
Первый
Основатель проекта "legal.logos" Наши контакты: https://www.instagram.com/legal.logos/ h...  · 26 авг 2021
На сегодняшний день в деятельности современного следователя можно выделить основные элементы, к которым могут быть применены возможности систем искусственного интеллекта: поиск ориентирующей и доказательственной информации, принятие решений и работа с процессуальными документами. Можно выделять отдельные компоненты ИИ при расследовании преступлений. В частности, при... Читать далее
очень хороший и разносторонний ответ. Не соглашусь пожалуй разве что вот с этой формулировкой: "Искусственный... Читать дальше
Первый
Занимаюсь уголовным правом и криминологией. Студентка юрфака МГУ им. М.В. Ломоносова.   · 1 авг 2021
Вопросы этики – практически мертвая зона в условиях отсутствия общепринятого и достоверного понимания таких категорий как мораль, нравственность и т.д. Этику сложно формализовать. А именно данный феномен имеет большое значение для разработки критериев эффективности правовой системы. Что этично, а что не этично? (этичность зависит от последствий или этичность... Читать далее
Профессиональный ученый, интересы самые разные. Философия, секс, поэзия, история...  · 4 окт 2021
Вопрос не в "этичности", а в адекватности использования. Как инструмент в помощь следствию - вполне приемлемо. Как предрешение виновности, принятие его работы в качестве несомненной истины - неприемлемо. ИИ может подсказать возможные варианты, помочь распутать груду данных, неподъемных для человека, но человеческие вопросы решать должен человек.
Первый
Юрист-международник, интересно практически все-психология, искусство, кулинария и e.t.c...  · 25 июл 2021
Этично. И нужно. Чтобы расследовать и раскрыть преступление необходимо использовать все средства и методы. На войне все средства хороши. Единственное, я всегда смотрела на искусственный интеллект как на супер помощника, этакого советника, который сможет беспристрастно проанализировать огромный пласт информации. Искусственный интеллект беспристрастен, это исключает... Читать далее
Как это верно! Есть такое методическое средство- Допрос с устрашением 3 степени. Многие правоохранители раньше... Читать дальше
Первый
Должность: учитель истории Деятельность: образование Увлечения: чтение, спорт, история  · 31 авг 2021
В последнее время в России и мире резко увеличилось число преступлений. Причём стала набирать обороты тенденция привлечения к расследованию противоправных деяний искусственного интеллекта. Главная причина этого процесса заключается, с одной стороны, в значительном развитии нанотехнологий, чему уделяет внимание большое количество развитых государств, а с другой, в... Читать далее