Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Как защитить от взлома машинные обучения, нейронные сети, искусственные интеллекты?

ТехнологииПрограммирование+3
  · 3,5 K
Лучший
Я программист в компании - senior  · 21 мая 2022
Скорее всего работающим решением будет дополнение своей обучающей выборки такими вредоносными примерами, чтобы не дать себя обмануть хотя бы на них. Но сгенерировать все возможные вредоносные примеры и получить 100%-ную точность вряд ли удастся опять же из-за того, что мы пытаемся найти компромисс между переобучением на тестовых данных и недообучением.
Cloud4Y — один из ведущих провайдеров услуг по моделям IaaS, PaaS и SaaS. Мы 12 лет...  · 15 июн 2022
Привет! Вопрос не совсем корректный. Машинное обучение и ИИ нельзя взломать в прямом смысле этого слова.  Но можно испортить алгоритмы работы, если добавить заведомо неправильные датасеты. Например, если нейросеть обучать распознавать лица людей  и добавить туда датасет с обезьянами, которые размечены как люди, то машина может на первых порах распознавать обезьян как... Читать далее