Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Почему любая булева функция представима в виде нейронной сети? Сколько в ней слоёв?

ПрограммированиеМашинное обучение+3
  · 8,7 K
Openstack DevOps and IBM/Informix Certified DBA . Phd in Math (Duality of spaces of...  · 21 июл 2022
McCulloch Pitts Neuron можно использовать для представления любой булевой функции , которая является линейно отделимой. Кроме того, мы можем видеть строгое правило демаркации вместо постепенной границы принятия решений, где все, что немного выше разделяющей границы, равно 1, а чуть ниже - 0. Нейроны запускаются со ступенчатой функцией, подобной поведению. Но большая гибкость достигается за счет того, что персептроны имеют веса, прикрепленные к каждому из его входов, но все еще существует строгое разграничение. 
Вышеупомянутые механизмы не работают для нелинейно разделимых функций. Очень простым примером является XOR, представьте, что для этой функции рисуется разделительная линия в двумерной плоскости. Не будет ни одной ! Как и в XOR, большинство данных линейно неразделимы по своей природе.
==========================================
Следовательно, для создания разделительных границ для этих функций требуются передовые вычислительные модели, такие как современные нейронные сети. Просто посмотрите базовую иллюстрацию с одним скрытым слоем и некоторыми предопределенными весами, которые воспроизводят функцию XOR.
h1(0,0) => w1 = 0, h2(1,0) =>w2 = 1, h3(0,1) =>w3 = 1, h4(1,1) => w4 = 0 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= x1(XOR)x2 на выходе.
Любая булева функция n входов может быть представлена сетью персептронов, содержащей 1 скрытый слой с 2^n персептронами и один выходной слой, содержащий 1 персептрон. Это достаточное условие, но не необходимое. 
В нашем анализе сетей с одним скрытым слоем со ступенчатой функцией, подобной аппроксимации. У него есть ограничения с его жесткими критериями оценки, эквивалентными ступенчатой
функции. Диаграммы для x1 ^ x2, x1 v x2, x1 -> x2 = (!x1) v (x2) нетрудно построить так же как и для XOR
Для х1 ^ x2 :
h1(0,0) => w1 = 0, h2(1,0) =>w2 = 0, h3(0,1) =>w3 = 0, h4(1,1) => w4 = 1 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= (x1 ^ x2) на выходе.
Для х1 v x2 :
h1(0,0) => w1 = 0, h2(1,0) =>w2 = 1, h3(0,1) =>w3 = 1, h4(1,1) => w4 = 1 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= (x1 v x2) на выходе.
Я очень рад быть частью этой группы и надеюсь внести положительный вклад.   · 7 дек 2022
Любая логическая функция (функция, которая принимает логические входные данные и производит логический вывод) может быть представлена как нейронная сеть, потому что нейронная сеть — это математическая модель, которая может аппроксимировать любую произвольную функцию при наличии достаточного количества данных и вычислений. Нейронная сеть состоит из нескольких слоев взаимо... Читать далее
1 эксперт не согласен
Любая булева функция n входов может быть представлена сетью персептронов, содержащей 1 скрытый слой с 2^n... Читать дальше
СТО, Мастер  · 24 февр 2023
Любая булева функция может быть выражена в виде конъюнкции, дизъюнкции и отрицания булевых переменных. Нейронная сеть, состоящая из одного слоя, который имеет такое количество нейронов, сколько есть входных переменных, может выразить любую конъюнкцию. Аналогично, с помощью однослойной нейронной сети можно выразить любую дизъюнкцию, используя функцию активации, которая... Читать далее
1 эксперт не согласен
«Для выражения XOR можно использовать двухслойную нейронную сеть, состоящую из одного скрытого слоя, имеющего два... Читать дальше