Вообще это отражается а теории информации. Если грубо, то чем менее структурирован сигнал, тем больше информации он передаёт.
Если же говорить об измерении или рассчёте структурированности, то в моём понимании любая структура обладает некоторой повторяемостью, а это значит, что если объект описать массивом некоторых величин, то он может быть выражен в виде тензора. Далее можно будет применить преобразование Ферма и по тому, насколько картинка отличается от нормального распределения, судить о структурированности.
Тогда скорее не "структурирован", а "предсказуем". В формуле Шеннона(информационная энтропия) фигурирует понятие вероятности.
Существует и в разных областях математики понимается по-разному. Например, в алгебре жёстко структурированным обычно считается объект, который строится из некоторого ограниченного набора простейших объектов с помощью очень небольшого набора стандартных процедур.
Если кратко, то я бы посоветовал познакомиться с понятием "энтропия". Оно широко используется в термодинамике, теории информации, статистической физике, теории вероятностей.