Парадигмальное значение статистического метода в физике
Та же статистическая модель, которая объясняет теорию эволюции Дарвина, была применена и в физике. И хотя здесь также на первых порах речь не шла об отвержении или пересмотре ньютоновских принципов, развитие этого направления подготовило почву для серьезных перемен на уровне парадигматики. Статистическая физика развивалась на основании сложных систем, "цельностей", которые признавались состоящими из вполне ньютоновских локальных элементов и взаимодействий, но их количество было столь велико, что проследить всю совокупность чисто механическими средствами просто не представлялось возможным. Поэтому вся система анализировалась общими методами - на основе теории вероятности (Гюйгенс, Ферма, Паскаль, Чебышев, Марков, Ляпунов и т.д.).
Осмысливаясь как простой методологический ход, призванный рассматривать ситуации в тех случаях, когда прямой атомистский анализ (основанный на локальных ситуациях) по каким-то причинам был затруднен или невозможен, статистическая физика вынуждена была иметь дело с "цельностями", концептуализируя их поведение. Особенно этот метод оказался эффективным при рассмотрении явления теплоты и физических закономерностей, связанных с термодинамикой, с осмыслением открытого Рудольфом Клаузисом (1822-1888) закона "возрастания энтропии". Основы статистической физики были разработаны Людвигом Больцманом (1844-1906), статистической механики - Джозайей Гиббсом (1839-1903).
Известный современный физик, лауреат Нобелевской премии 1929 г. Луи де Бройль так описывает основные принципы статистической механики: "Успехи статистической механики научили физиков рассматривать некоторые законы природы как статистические. Именно потому, что в газах происходит колоссальное число механических элементарных процессов, давление или энтропия газов подчиняется простым законам. Законы термодинамики имеют характер вероятностных законов, представляющих собой статистические результаты явлений атомного масштаба, которые невозможно изучать непосредственно и анализировать детально. Строгие динамические законы, абсолютный детерминизм механических явлений ослабляются в атомном мире, где они становятся ненаблюдаемыми и где проявляются и могут наблюдаться в нашем масштабе только лишь их средние характеристики. Таким образом, физики заметили, что во многих случаях наблюдаемым законам подчиняются лишь средние значения величин. Поэтому ученые занялись изучением вероятностных законов. Волновая механика развила это направление и показала, что наблюдаемые законы, которым подчиняются элементарные частицы, также носят вероятностный характер".
Разработки теория поля Джеймсом Максвеллом (1831-1879) и его толкование второго закона термодинамики (для иллюстрации вероятностного, а не абсолютного характера которого он ввел знаменитую гипотезу "демона Максвелла") были первыми элементами этой конструкции, обобщенными позже Больцманом.
Максвелл пересмотрел и иные казавшиеся незыблемыми ньютоновские постулаты. Так, в частности, он вернулся к (якобы полностью опровергнутой Ньютоном) волновой теории света, некогда выдвинутой голландцем Гюйгенсом (1629-1695) и развил на ее основе собственную концепцию электромагнитных полей. Интересно, что именно Гюйгенс был первым провозвестником теории вероятности, которая также ближе стоит к холистской парадигме, чем метод локальности Ньютона. Волновая теория вообще является признаком холистского отношения к физическому явлению, тогда как атомистский подход напрямую сопряжен с парадигмой отрезка. Хотя Максвелл в определенных случаях оставался верным атомистскому принципу, тот факт, что в центре внимания его исследований стояли колебания, волны и принципы теории вероятности, о многом говорит.
Физико-математический механизм, разработанный пионерами статистической физики обнаружил свое парадигматическое значение лишь позже, в квантовой механике.
А.Дугин. Эволюция парадигмальных оснований науки.
Глава X.
Семантика парадигматических сдвигов в науке Новейшего времени.
Москва, Арктогея, 2002
Переходы: