Авторизация
Санкт-Петербург
«Люди, события, факты» - вы делаете те новости, которые происходят вокруг нас. А мы о них говорим. Это рубрика о самых актуальных событиях. Интересные сюжеты и горячие репортажи, нескучные интервью и яркие мнения.
События внутренней, внешней и международной политики, политические интриги и тайны, невидимые рычаги принятия публичных решений, закулисье переговоров, аналитика по произошедшим событиям и прогнозы на ближайшее будущее и перспективные тенденции, публичные лица мировой политики и их "серые кардиналы", заговоры против России и разоблачения отечественной "пятой колонны" – всё это и многое вы найдёте в материалах отдела политики Царьграда.
Идеологический отдел Царьграда – это фабрика русских смыслов. Мы не раскрываем подковёрные интриги, не "изобретаем велосипеды" и не "открываем Америку". Мы возвращаем утраченные смыслы очевидным вещам. Россия – великая православная держава с тысячелетней историей. Русская Церковь – основа нашей государственности и культуры. Москва – Третий Рим. Русский – тот, кто искренне любит Россию, её историю и культуру. Семья – союз мужчины и женщины. И их дети. Желательно, много детей. Народосбережение – ключевая задача государства. Задача, которую невозможно решить без внятной идеологии.
Расследования Царьграда – плод совместной работы группы аналитиков и экспертов. Мы вскрываем механизм работы олигархических корпораций, анатомию подготовки цветных революций, структуру преступных этнических группировок. Мы обнажаем неприглядные факты и показываем опасные тенденции, не даём покоя прокуратуре и следственным органам, губернаторам и "авторитетам". Мы защищаем Россию не просто словом, а свидетельствами и документами.
Экономический отдел телеканала «Царьград» является единственным среди всех крупных СМИ, который отвергает либерально-монетаристские принципы. Мы являемся противниками встраивания России в глобалисткую систему мироустройства, выступаем за экономический суверенитет и независимость нашего государства.
Служба и опасна и трудна. Правоохранителей заменит искусственный интеллект
Фото: Production Perig / Shutterstock.com
Катехон

Служба и опасна и трудна. Правоохранителей заменит искусственный интеллект

В современных условиях искусственный интеллект не только позволяет решать отдельные узкие задачи, но и приближается по своим возможностям к полноценному мышлению человека. В настоящих правовых реалиях программирование и компьютеризация раскрытия и расследования преступлений осуществляются путём создания информационно-поисковых, справочных систем, а также баз данных и криминалистических алгоритмов, оптимизирующих процесс, например, выдвижения и проверки криминалистических версий, планирования расследования, обеспечения функций поддержания порядка, розыска преступника и пр.

Перед современной юриспруденцией, её отраслями, особенно ориентированными на прикладное использование, всегда стояла задача совершенствования применяемого инструментария, адаптации и развития возможностей для повышения эффективности в постоянно изменяющемся мире. Современная действительность в результате нарастания темпов научно-технического прогресса меняется очень быстро, в силу этого перед юристами стоит задача изучения и внедрения новых технологий. В октябре 2019 года президент России В. В. Путин утвердил "Национальную стратегию развития искусственного интеллекта до 2030 года". В документе указаны приоритетные научные задачи: обеспечение ускоренного развития искусственного интеллекта в России, проведение научных исследований в области искусственного интеллекта, повышение доступности информации и вычислительных ресурсов для пользователей, совершенствование системы подготовки кадров в этой области.

Приоритетные направления развития и использования технологий искусственного интеллекта определяются в России с учётом национальных целей и стратегических задач, определённых указом президента России "О национальных целях и стратегических задачах развития Российской Федерации на период до 2024 года" от 7 мая 2018 года № 2042. Названные нормативно-правовые акты подчеркивают колоссальную государственную и общественную важность данной технологии в современной России. В настоящей статье будут рассмотрены некоторые технологические основы и возможности применения систем искусственного интеллекта в правоохранительной деятельности.

Искусственный интеллект – создаваемое с помощью группы смежных технологий программное обеспечение, функционирующее нелинейно, способное к обучению, ограниченному пониманию причинности и выполнению задач интеллектуального, эвристического характера с возможностью обучения, корректировки и уточнения за счёт опыта принимаемых решений. Таким образом, в рамках настоящего исследования мы будем анализировать только этико-правовые аспекты функционирования интеллектуальных систем, способных к обучению и ситуативной обработке информации, что исключает как традиционные программные комплексы, так и экспертные системы.

Предвзятые программные инструменты, которые используют алгоритмы искусственного интеллекта (AI) и машинного обучения (ML) для помощи в принятии решений ("средства поддержки принятия решений"), могут усугубить социальное неравенство при использовании в некоторых областях, таких как правоохранительные органы. Во время гражданских беспорядков крайне важно обеспечить, чтобы такие средства принятия решений – в частности, те, которые используются правоохранительными органами (LE), – приводили к справедливым результатам. Например, Министерство внутренней безопасности США (DHS) уже вводит такие средства для принятия решений (например, распознавание лиц для проверки в аэропорту) и рассматривает другие (DHS, 2018). Эти текущие и планируемые реализации программного обеспечения должны быть проверены на предмет возможной предвзятости. Существующие усилия по устранению предвзятости искусственного интеллекта обычно сосредоточены на том, как модели машинного обучения разрабатываются и обучаются. Но предвзятость может проявляться и на других этапах разработки программного обеспечения.

Средства поддержки алгоритмических решений (т. е. инструменты, основанные на моделях AI и ML) всё чаще становятся частью операций LE. Эти технологии могут широко применяться, например, в биометрических системах (например, распознавание лиц) или для прогнозирования полицейских (например, картографирование горячих точек, прогнозирование риска участия человека в насильственных или серьёзных преступлениях).

Как машинное обучение способствует принятию решений? Модели машинного обучения – это статистические модели, которые можно развернуть в различных контекстах принятия решений, например, в операциях DHS, чтобы обеспечить согласованность и масштабируемость. Но все процессы принятия решений, принимаемые людьми или моделями машинного обучения, содержат некоторые врождённые недостатки, которые могут быть наиболее заметными и остро ощущаемыми при принятии решений, результаты которых напрямую влияют на людей. Предвзятость – это особенно важный недостаток в процессах принятия решений, основанных на статистических моделях машинного обучения.

Мы считаем автоматизированную систему принятия решений необъективной, если (1) она последовательно даёт непропорциональные результаты для разных групп людей, и (2) несопоставимые её воздействия несоизмеримы с тем, что можно было бы ожидать от людей в затронутых группах, учитывая их относительную долю среди населения.

Соображения по смягчению последствий для конкретных компонентов DHS включают следующие аспекты (некоторые из которых, возможно, уже осуществляются):

Управление транспортной безопасности (TSA): при приобретении сканеров распознавания лиц или тела для LE и наблюдения, TSA может использовать различные способы строгого тестирования таких систем, чтобы предотвратить непредвиденные предубеждения при развёртывании. Хотя TSA может быть не в состоянии собрать демонстрационные данные о тех, кто проезжает через аэропорты, оно могло бы провести тестирование, которое способно учесть существовавшие ранее различия в составе населения, проезжающего через различные аэропорты страны, которые, вероятно, различаются в зависимости от области. В разных аэропортах могут потребоваться разные способы предотвращения предвзятости.

Таможенно-пограничная служба США (CBP): при получении алгоритмических средств принятия решений для наблюдения, CBP может учитывать различия в составе населения на границах и в пределах Соединённых Штатов. Этот фактор может повлиять на нынешние и будущие методы наблюдения и на внесение систематической ошибки в любую систему.

В США искусственный интеллект помогает суду выносить приговоры, избирать меры пресечения и принимать решения о смягчении наказания. Если машина, изучив данные о подозреваемом, сочтёт его склонным к рецидиву, ему могут дать реальный срок вместо условного или отказать в освобождении под залог. Так, американца Эрика Лумиса (Eric Loomis) приговорили к шестилетнему заключению за управление автомобилем, пассажир которого обстрелял на ходу здание. Причиной тому – выводы системы COMPAS, оценивающей опасность человека для общества. Машина изучила историю взаимоотношений подсудимого с законом и его анкету – и признала Лумиса опасным. Защита пыталась оспорить это решение: принцип работы COMPAS не разглашается, а значит, нельзя говорить о справедливости выводов системы. Однако суд счёл этот аргумент несущественным.

В некоторых регионах Китая пошли ещё дальше – там находят при помощи искусственного интеллекта потенциальных преступников ещё до того, как они нарушат закон. Камеры с системой распознавания лиц наблюдают за гражданами и сообщают правоохранительным органам, если в объектив попало что-то подозрительное. Например, если кто-то купил слишком много удобрений за раз – ведь их могут использовать для подготовки теракта. Человека, уличённого в сомнительном поведении, полиция имеет право арестовать или направить на принудительное перевоспитание.

Пытаются предсказывать преступления и в других странах. В некоторых регионах США и Великобритании полицейские используют компьютерную систему, которая определяет, где в ближайшее время может произойти инцидент. Она учитывает множество факторов: криминальную историю района, его социально-экономический статус и даже прогноз погоды. Удивительно, но с появлением "оракула" в тех районах Чикаго, где он работал, количество инцидентов со стрельбой уменьшилось примерно на треть.

Анализ документативной статьи под названием "Identifying Systemic Bias in the Acquisition of Machine Learning Decision Aids for Law Enforcement Applications" позволил сформулировать ряд выводов и предложений, касающихся машинного обучения и искусственного интеллекта в России.

Машинное обучение – это потрясающая технология, это новый способ общения с машинами, который даёт нам выбор, как донести свои желания до машины. Мы склонны всё очеловечивать, в том числе машинное обучение. Но человеческим свойствам в машине просто неоткуда взяться. Нет такого места в коде, где искусственный интеллект начал бы думать о чём-то или обучаться чему-то, что вы ему не показывали. Как он сможет развить способности, которых вы ему не продемонстрировали? Система так не работает. Так что все эти истории, в которых искусственный интеллект вдруг находит какие-то альтернативные сенсорные данные и превращается в богоподобное существо, – просто сказки.

В России применение машинного обучения в правоохранительной системе развито явно недостаточно. Основным фактором, сдерживающим проникновение искусственного интеллекта в России, является финансовая ситуация. Однако первичная проблема – недостаточное правовое регулирование. Правительство должно задать направление регулирования сферы искусственного интеллекта, что оно и делает сейчас, разработав "Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года". Конечно, одной лишь концепции недостаточно. Необходим прежде всего апробационный период, в ходе которого будут выявлены сферы нормативного регулирования, которые требуют наибольшего внимания, а также устранены законодательные пробелы. Если говорить про сферы права, на которые необходимо обратить наибольшее внимание, это гражданское законодательство (естественно, как основа интеллектуальной собственности), а также административное право, уголовное право. Именно регулирование на уровне отраслей права заложит основу для регулирования машинного обучения без привязки к конкретной сфере экономики или общества.

Из-за этих основных проблем мы пока в основном можем лишь наблюдать, как применяют искусственный интеллект правоохранители в других странах. Опыт скопился достаточно приличный, чтобы для нашей страны наметить те узкие сферы, где можно начинать применять машинное обучение относительно безопасно.

В современных условиях искусственный интеллект не только позволяет решать отдельные узкие задачи, но и приближается по своим возможностям к полноценному мышлению человека. В настоящих правовых реалиях программирование и компьютеризация раскрытия и расследования преступлений осуществляются путём создания информационно-поисковых, справочных систем, а также баз данных и криминалистических алгоритмов, оптимизирующих процесс, например, выдвижения и проверки криминалистических версий, планирования расследования, обеспечения функций поддержания порядка, розыска преступника и пр.

Главный признак искусственных нейронных сетей как одного из основных методов реализации систем искусственного интеллекта в правоохранительной деятельности, в частности, это способность к ситуационному адаптивному обучению, выявлению неочевидных связей и закономерностей. Искусственный интеллект, как и машинное обучение, может совершать достаточно серьёзные ошибки – в том виде, в котором он существует сейчас. И тем не менее люди доверяют машине в очень важных вопросах. Уже сегодня самообучающиеся системы помогают принимать решения судьям и врачам и даже предсказывают ещё не совершённые преступления. При этом пользователи таких систем далеко не всегда знают, на основе чего те делают свои выводы.

Одна из главных проблем с искусственным интеллектом, решающим судьбы людей, в том, что зачастую механизмы его работы непрозрачны, и в случае ошибки невозможно определить, что к ней привело и как избежать её повторения в будущем. Ясно, что искусственный интеллект, машинное обучение будут и дальше внедряться в практику правоохранительной деятельности с развитием и расширением доступности технологий умного города, датчиков, интернета вещей. Разумеется, данным списком возможности систем искусственного интеллекта не ограничиваются. Эта технология обладает колоссальным потенциалом, в том числе и для решения как частных, так и общих задач правоохранительной деятельности.

Материал об истинном смысле происходящего за пределами нашей страны предоставлен Аналитической группой Катехон.

Подписывайтесь на канал "Царьград" в Яндекс.Дзен
и первыми узнавайте о главных новостях и важнейших событиях дня.

Читайте также:

COVIDный беспредел: Народу – закон, элите – тоже закон, но другой Безопасность в параллельном мире. Кто и как регулирует русскую Сеть Терминатор уже здесь. Не фантастика, а реальность: роботы начали убивать людей Для армии России готовят "военный искусственный интеллект"
Загрузка...