Энтропия по определению - это функция состояния термодинамической системы, такая, что для всякого бесконечно малого равновесного теплообмена её (энтропии, то бишь) изменение равно dS=dQ/T. Всё :)
Сложно и непонятно? К сожалению, на сегодняшний день общепринятого словесного, легкодоступного для неспециалистов определения нет. Хуже того, по Сети гуляет немыслимое количество ошибочных определений этой важной величины. Энтропия к беспорядку/хаосу не имеет никакого отношения от слова "совсем". Это заблуждение пошло от работ Сцилларда и Бриллюэна, когда проводили сомнительные мысленные эксперименты и пытались отождествить энтропию термодинамическую и информационную. Разумеется, такое примитивное приравнивание провалилось, ибо, как известно, по информационной энтропии температуру не определишь. В то время как по термодинамической - без особых проблем.
Итак, просто запомните, что dS=dQ/T, откуда S получаем обыкновенным интегрированием с точностью до константы. И не надо плодить сущностей и делать ложных выводов из заведомо ошибочных предпосылок.
Энтропия- это мера беспорядка, хаоса. Как поётся в "Физической опере": " Энтропия все растёт ...".Согласно второму закону термодинамики энтропия замкнутой системы не может самопроизвольно уменьшаться. Если энтропия не меняется , то такой процесс называется адиабатическим( подобно тому, как при постоянстве давления процесс изобарический , при постоянстве температуры- изотермический и т.д.). В природе большинство процессов не являются адиабатическими- энергия всегда рассеивается и наблюдается гистерезис ( система не возвращаетсят в исходное состояние в отсутствие внешних воздействий ).По простому: рост энтропии- это когда все меняется от плохого к худшему.
Отвечу сугубо в психологическом аспекте.
Как подчёркивают современные специалисты в области интегральной психологии, эффективность общения между двумя людьми определяется тем, насколько им удалось исключить из своего общения "третьего".
Этот "третий" - это косность, нетерпимость, предубеждённость, стереотипность мышления.
Этот "третий" - и есть энтропия, с точки зрения психолога.
Самое простое - все процессы происходят с рассеиванием энергии. Всегда КПД ниже 100% Рассеянная энергия уже не соберется обратно. Сама вселенная существует по принципу рассеивания энергии материи и поэтому вселенная расширяется. Потом, когда все вещества во вселенной преобразуются в энергию - вселенная начнет сжиматься. Энтропия - это необратимость преобразования материального вещества в энергию.
По-простому? Это мера беспорядочности, бесструктурности. Величина, обратная информации, которая может рассматриваться как раз как мера упорядоченности.
Энтропия это мера неопределенности или мера беспорядка, это понятие было введено в теории вероятностей. Чем больше беспорядка в системе, или чем меньше содержится информации тем больше энтропия.
По определению энтропия некоторого распределения вероятностей равна сумме Pn*Ln(Pn), где Pn - вероятность события.
Например имеется алфавит из 32 букв, предположим, что стало вам известно, что некоторые буквы попадаются в тексте чаще, то есть вам известна вероятность выпадения некоторых букв, вопрос, можно ли зная эту информацию узнать с какой вероятностью будут выпадать остальные буквы про которые вам ничего не известно?
Для того что-бы ответить на данный вопрос, нужно присваивать оставшимся буквам различные вероятности, и для каждого такого получившего распределения считать энтропию, и то распределение в котором энтропия будет максимальной и есть наиболее правильное, так как в такое распределение мы включили минимум лишней информации. Предположим, что вы построили таким образом некоторое распределение, а затем вам стала точно известна вероятность выпадения еще нескольких букв, тогда вы можете построить другое распределение, а разность их энтропий будет количество информации которое вы получили узнав вероятности выпадения еще нескольких букв.
Энтропия – мера беспорядка (и характеристика состояния). Визуально, чем более равномерно расположены вещи в некотором пространстве, тем больше энтропия. Если сахар лежит в стакане чая в виде кусочка, энтропия этого состояния мала, если растворился и распределился по всем объёму – велика. Беспорядок можно измерить, например, посчитав сколькими способами можно разложить предметы в заданном пространстве (энтропия тогда пропорциональна логарифму числа раскладок). Если все носки сложены предельно компактно одной стопкой на полке в шкафу, число вариантов раскладки мало и сводится только к числу перестановок носков в стопке. Если носки могут находиться в произвольном месте в комнате, то существует немыслимое число способов разложить их, и эти раскладки не повторяются в течение нашей жизни, как и формы снежинок. Энтропия состояния "носки разбросаны" – огромна.
Второй закон термодинамики гласит, что самопроизвольно в замкнутой системе энтропия не может убывать (обычно она возрастает). Под её влиянием рассеивается дым, растворяется сахар, рассыпаются со временем камни и носки. Эта тенденция объясняется просто: вещи движутся (перемещаются нами или силами природы) обычно под влиянием случайных импульсов, не имеющих общей цели. Если импульсы случайны, всё будет двигаться от порядка к беспорядку, потому что способов достижения беспорядка всегда больше. Представьте себе шахматную доску: король может выйти из угла тремя способами, все возможные для него пути ведут из угла, а прийти обратно в угол с каждой соседней клетки – только одним способом, причём этот ход будет только одним из 5 или из 8 возможных ходов. Если лишить его цели и позволить двигаться случайно, он в конце концов с равной вероятностью сможет оказаться в любом месте шахматной доски, энтропия станет выше.
В газе или жидкости роль такой разупорядочивающей силы играет тепловое движение, в вашей комнате – ваши сиюминутные желания пойти туда, сюда, поваляться, поработать, итд. Каковы эти желания – неважно, главное, что они не связаны с уборкой и не связаны друг с другом. Чтобы снизить энтропию, нужно подвергнуть систему внешнему воздействию и совершить над ней работу. Например, согласно второму закону, энтропия в комнате будет непрерывно возрастать, пока не зайдёт мама и не попросит вас слегка прибрать. Необходимость совершить работу означает также, что любая система будет сопротивляться уменьшению энтропии и наведению порядка. Во Вселенной та же история – энтропия как начала возрастать с Большого Взрыва, так и будет расти, пока не придёт Мама.
Если совсем по-простому, то это мера хаоса некой системы. Вводя такую меру, мы можем сравнивать упорядоченность. Простейший пример - если в шахматы будут играть обезьяны, не понимая что они делают, энтропия доски будет существенно выше, чем в случае, когда играют двое гроссмейстеров.