ФИЛОСОФИЯ И МЕТОДОЛОГИЯ НАУКИ ПОСПЕЛОВА О.В., ЯНКОВСКАЯ Е.А.

advertisement
Северный (Арктический) Федеральный Университет имени М.В. Ломоносова
ПОСПЕЛОВА О.В., ЯНКОВСКАЯ Е.А.
ФИЛОСОФИЯ И МЕТОДОЛОГИЯ
НАУКИ
Учебное пособие для аспирантов
Архангельск 2012
1
Авторы: Поспелова Ольга Вячеславовна, кандидат философских наук, доцент кафедры
философии С(А)ФУ имени М.В. Ломоносова;
Янковская Екатерина Алексеевна, кандидат философских наук, старший
преподаватель кафедры философии С(А)ФУ имени М.В. Ломоносова
Рецензенты: Баксанский О.Е., доктор философских наук, профессор, ведущий научный
сотрудник Института философии РАН;
Дорожкин А.М., доктор философских наук, профессор, заведующий
кафедрой Истории, методологии и философии науки Нижегородского
государственного университета им. Н.И. Лобачевского
2
СОДЕРЖАНИЕ
Раздел 1. Происхождение и история науки
1. Происхождение науки
2. Наука в античности
А. От мифа к Логосу
Б. Ощущения и спекулятивное мышление в античной философии
В. Представления о первоначале в античной философии
Г. Строение вещества по Платону
Д. Физика Аристотеля
Е. Аристотелевские теории строения вещества
3. Средневековая наука
А. Теории движения и проблематизация положений физики Аристотеля
Б. Трактовка движения в Мертон-колледже
В. Наука оккамистов
4. Наука Нового времени: классическая механика
А. Галилео Галилей
Б. Иоганн Кеплер
В. Исаак Ньютон
Г. Законы движения классической механики
Д. Принципы классической механики
5. Термодинамика
6. Теория электромагнетизма
7. Теория относительности А. Эйнштейна
А. Специальная теория относительности (СТО)
Б. Общая теория относительности (ОТО)
8. Современные теории происхождения и строения космоса
9. Квантовая механика
А. Строение атома
Б. Дискретность и непрерывность
В. Разрыв с классической физикой
Г. Принцип неопределенности
Д. принцип дополнительности
10. Синергетика
Раздел 2. Природа и структура научного знания
1. Синтетическая природа научного знания
2. Наука и не-наука: критерии демаркации
А. Верифицируемость как критерий демаркации
Б. Фальсифицируемость как критерий демаркации
3. Движущие факторы и рост научного знания
А. Движущие факторы науки: интернализм и экстернализм
Б. Рост научного знания: кумулятивизм и его критика
4. Признаки хорошей теории
5. Формы и методы научного познания
6. Научное и обыденное познание
7. Логика научного исследования
А. Общая логика научного исследования
Б. Типы проблемных ситуаций
В. Подход К. Поппера
8. Реальность и ее репрезентация
9. Реализм и антиреализм
3
10. Научная объективность и проблема истины
А. Классическая концепция объективности и корреспондентная концепция
истины
Б. Критика классической концепции объективности
В. Релятивистские концепции
Г. Современные альтернативы классической концепции истины и объективности
11. Язык и научное знание
12. Природа научного знания с позиции Эдинбургской школы
13. Проблема научной рациональности
А. Классическое понимание и идеал научной рациональности
Б. Критика классического идеала научной рациональности
В. Современные модели рациональности
Г. Критерии научной рациональности у К. Поппера и Т. Куна
14. Наука и ценности
А. Постановка проблемы и ее классическое видение
Б. Идеал нейтральной и беспристрастной науки
В. Критика классического подхода
Г. Подход Т. Куна и его критика
Д. Феминистский подход к проблеме ценностей в науке
15. Проблема автономности научного знания
А. Интеллектуальный контекст и стили научного мышления
Б. Социальный контекст
Раздел 3. Модели развития научного знания
1. Нормативный подход
А. Дедуктивно-рационалистическая модель
Б. Индуктивная модель
В. Индуктивно-гипотетическая модель: верификационистский вариант
неопозитивистов
Г. Индуктивно-гипотетическая модель: фальсификационистский вариант К.
Поппера
2. Историческая модель науки Т. Куна
А. Понятие научной парадигмы и нормальная (ординарная) наука
Б. Научная революция и экстраординарная наука
В. Несоизмеримость парадигм
Г. Критика куновского подхода
4. Методология исследовательских программ И. Лакатоса
5. Релятивизм и методологический анархизм
А. Понятие релятивизма
Б. Релятивизм В. Куайна и концепция онтологической относительности
В. Радикальный релятивизм П. Фейерабенда и методологический анархизм
6. Концепция научного знания М. Полани
Литература
Рекомендованная литература (основная)
Рекомендованная литература (дополнительная)
4
РАЗДЕЛ 1. ПРОИСХОЖДЕНИЕ И ИСТОРИЯ НАУКИ
Происхождение науки
Вопрос о возникновении науки и периодах ее развития напрямую связан с вопросом о
том, какое содержание мы вкладываем в слово «наука». Относительно даты и места
возникновения науки можно выделить пять точек зрения:
1)
Наука органично присуща практической и познавательной деятельности
человека, поэтому она была и есть всегда и везде, где есть разумно
действующий человек.
2)
Наука возникла в Греции в 5 веке до н.э., когда знание впервые было соединено
с обоснованием.
3)
Наука возникла в Западной Европе в позднее средневековье (12 – 13 века)
вместе с особым интересом к опытному знанию и математике.
4)
Наука возникла в Европе в 16 – 17 веках вместе с работами Кеплера, Галилея,
Ньютона, разработавшими первую теоретическую модель физики на языке
математики.
5)
Наука начинается с первой трети 19 века, когда исследовательская деятельность
была объединена с образованием.
В первом случае наука связывается с познавательной деятельностью человека и с
практикой изобретений. Это самое широкое понимание существа науки. Во втором случае
под наукой понимается тот вид рациональной рефлексии, который получает развитие в
античной Греции. Его возникновению мы обязаны древним пифагорейцам, которые ввели в
математику единую систему доказательств. Тут мы имеем дело с отождествлением науки и
теоретической философии, науки и того, что в эпоху античной классики называли
«эпистеме» - разумное знание об умозрительных сущностях. Сторонники этого подхода во
главу угла ставят математическое обоснование научного знания, которое, в свою очередь,
дедуцируется из некоторых аксиоматических положений. В третьем случае науку
связывают, в первую очередь, с опытным индуктивным познанием. В четвертом случае под
«наукой» понимают тот специфический способ познания, который возникает в Европе в
Новое время, когда, наконец-то, преодолевается пропасть между теоретическими
спекуляциями, опытным познанием и практикой изобретений. Идеалом науки становится
математически обоснованное естествознание. И, наконец, в пятом случае под словом
«наука» понимают особый тип институционализированной деятельности, возникновение
научных сообществ современного типа.
Статус науки многократно пересматривался и переопределялся с различных точек
зрения. Самое общее определение науки считает ее высокоспециализированной
деятельностью человека по выработке, систематизации и проверке знаний с целью их
высокоэффективного использования. С другой стороны под наукой понимают систему
знания, достигшего оптимальности по критериям обоснованности, достоверности и
непротиворечивости. Наиболее показательными специфическими чертами науки принято
считать следующие:
1) Рациональность как постоянная апелляция к авторитету разума. Освоение мира в
понятиях и умозаключениях.
2) Стремление к обоснованности и доказательности.
3) Интерсубъективная проверяемость научного знания.
4) Системность научного знания.
5) Методичность.
6) Собственный язык.
7) Собственная предметная область.
8) Предсказательная функция.
9) Фальсифицируемость.
5
Наука в античности
От мифа к Логосу
Первый вопрос, который возникает у нас, когда мы касаемся возникновения научного
дискурса: каковы основания считать построения милетцев и других греческих философов
ближе к научному мировоззрению, чем к мифологическому и религиозному?
Фантастичность этих построений и их генетическая близость к мифологии, казалось бы,
должны убедить нас в том, что они не имеют никакого отношения к научному взгляду на
мир. Но, тем не менее, именно они лежат у истоков формирования такого взгляда.
Принято считать, что отличительной чертой «новоиспеченной» философии в
сравнении с той же религией и мифологией была установка на рациональное познание. Но
этот аргумент работает лишь до тех пор, пока мы ограничиваем рациональность областью
науки и логики. Получается замкнутый круг: определяем науку через рациональность, а
рациональность – через науку. В последнее время стали говорить о различных типах
рациональности, в том числе и об особой рациональности мифа (К. Хюбнер). Если
рациональность – это апелляция к разуму, то для человека традиционной культуры
«мифологическая аргументация» звучит куда более убедительно, чем аргументы
современной физики.
Эрвин Шрѐдингер предлагает проводить демаркационную линию между
религиозно-мифологическим и научным сознанием, противопоставляя «закрытые» и
«открытые» модели мира. Задача любой религии (и мифологии в особенности) – «завершить
всегда неполное понимание неопределенного и загадочного положения человека в мире»,
ликвидировать «белые пятна», закрыть вызывающую недоумение открытость
мировоззрения, полученного исключительно на основе опыта. Мифология и религия
спасают от неопределенности непознанного. Отличие науки в том, что она будет стоически
мириться с «пробелом», вместо того, чтобы заполнять его подлогом или необоснованным
предположением. И дело здесь не только в «этосе ученого», но в том, что страх утратить
стимул к познанию сильнее страха жизни в непроясненном и непонятном мире. Иными
словами, для науки возможность задавать вопросы и искать ответы, то есть желание «узнать
еще» ценнее, чем уют готового знания о понятном и цельном мире, переданного традицией.
Поэтому ученый согласен жить в как бы «дырявом мире», а религиозный человек – нет.
Ощущения и спекулятивное мышление в античной философии
Одной из самых бурно обсуждаемых тем у греков была тема надежности
чувственного познания. Инициировано это обсуждение было как раз наблюдениями,
указывающими на ненадежность чувств. Самыми популярными примерами у греков были:
преломление предметов в воде и горький вкус меда для больных желтухой. Эти примеры
наводили на мысль о том, что следует разграничить то, каковы вещи на самом деле, и то,
какими они нам кажутся. Но как узнать, каковы вещи, если чувства обманчивы и
противоречивы? Ответ: у нас есть разум, способный устанавливать непротиворечивые
отношения между идеями, которые, к тому же не меняются в зависимости от того,
устанавливает их больной желтухой или здоровый человек. Наиболее показательным
примером здесь будет философия Парменида, которого нимало не смущало, что его картина
истинного бытия вступает в совершенное противоречие с нашим опытом. Он с легкостью
объявляет мир, данный в опыте, иллюзорным, а мир, построенный при помощи логики –
истинным.
Эта же тенденция прослеживается и у Демокрита – автора первой в Греции
полноценной философской системы. У него мы находим резкое противопоставление
априорного и апостериорного знания: чувства говорят нам, что яблоки бывают красные и
зеленые, кислые и сладкие, что есть вещи холодные и теплые, влажные и сухие. Но все эти
качества не принадлежат природе самих вещей, они суть эффекты, возникающие при
различных комбинациях фундаментальных первоначал – атомов и пустоты. Ни атомы, ни
6
пустота эмпирическим путем познаны быть не могут – у Демокрита они умозрительные
конструкции, плоды спекулятивного ума. Но именно атомы и пустота кладутся Демокритом
в основание физического (и психического) мира.
В то же время Демокрит понимал, что голая интеллектуальная конструкция так
основана на чувственных восприятиях. В одном из фрагментов его сочинения описано, как
разум спорит с чувствами и последние отвечают: «Бедный интеллект, ты надеешься
победить нас, несмотря на то, что от нас черпаешь свои доказательства. Твоя победа – это
твое поражение».
Примечательно, что те философы, которые пытались строить свою космологию и
физику, больше полагаясь на эмпирический опыт, создавали более ошибочные модели, чем
те, чьи модели были более умозрительными. Например, модель пифагорейцев, где круглая
Земля вращается вокруг «Центрального огня». Увлеченные интеллектуальными
медитациями пифагорейцы были ближе к истине, чем Демокрит, который представлял
Землю плоской, в виде бубна, а построения пифагорейцев казались ему слишком
искусственной конструкцией.
Впрочем, оценка эмпирического и теоретического компонентов в науке древних
находится в прямой зависимости от состояния науки в наши дни. В 19 веке бурный прогресс
в науке был вызван как раз экспериментом, поэтому «философские спекуляции» были не в
чести. Однако к 20 веку на первый план начинает выходить теоретическая физика. Физиктеоретик, как правило, живет с верой в простоту и красоту Вселенной. Что касается греков,
то можно сказать, что во времена греческой классики теоретическая физика находилась так
далеко впереди эксперимента, как никогда в последующие эпохи.
Представления о первоначале в античной философии
С самого начала греческая философия несла в себе противопоставление единого и
многого. В наших представлениях мир раскрывается как бесконечное многообразие вещей и
событий, цветов и звуков. Но, чтобы его понять, необходимо установить определенный
порядок. Порядок означает выяснение того, что тождественно. Он означает единство. На
основании этого возникает убеждение, что должен существовать единый принцип; но в то
же время возникает трудность, каким путем вывести из него бесконечное многообразие
вещей. Естественный исходный пункт: существует материальная первопричина вещей, так
как мир состоит из материи.
В современной атомной физике в новой форме возникает проблема, поставленная еще
в античности: является ли первоматерия одной из известных субстанций или она нечто их
превосходящее? В наше время пытаются найти основной закон движения материи, из
которого могут быть математически выведены все элементарные частицы со своими
свойствами. Это фундаментальное уравнение движения может быть отнесено или к волнам
известного вида, например протонным или мезонным, или к волнам принципиально иного
вида, не имеющим ничего общего с волнами известных элементарных частиц. В первом
случае это означало бы, что все множество элементарных частиц может быть объяснено с
помощью одного или нескольких фундаментальных элементов. Так полагал Фалес – первый
из известных нам греческих философов из ионийского города Милет, который полагал, что
вода является основой всего. Во втором случае все многообразие элементарных частиц
объясняется некоторой универсальной первоматерией. В этом случае ни одна из
элементарных частиц принципиально не выделяется среди других в качестве
фундаментальной частицы. Последняя точка зрения соответствует доктрине второго после
Фалеса греческого философа, Анаксимандра, который полагал, что первоначалом является
эмпирически недоступный апейрон («беспредельное»). Третий милетский философ,
Анаксимен, по всей вероятности ученик Анаксимандра, учил, что первоматерией, из которой
состоит все, является воздух. Он считал, что так же как наша душа есть не что иное, как
воздух, и нас объединяет, так дуновение и воздух объединяют весь мир. Анаксимен ввел в
милетскую философию идею, что причиной превращения первоматерии в другие субстанции
7
является процесс сгущения и разрежения. В то время было, конечно, известно о
превращении водяного пара в облако, а о различии между водяным паром и облаками еще не
знали.
В философии Гераклита из Эфеса первое место заняло понятие становления. Гераклит
считал первоматерией движущийся огонь. Трудность соединения единого принципа с
наличием бесконечного превращения явлений разрешалась Гераклитом посредством
предположения, что непрерывно происходящая борьба между противоположностями и есть
своего рода гармония. Для Гераклита мир одновременно и единое и многое, именно
напряжение противоположностей образует единство целого. Он утверждал: борьба есть
всеобщая основа всякого бытия, и эта борьба есть одновременно уравновешивание; все вещи
возникают и снова исчезают в процессе борьбы.
Современная физика в некотором смысле близко следует учению Гераклита. Если
заменить слово «огонь» словом «энергия», то почти в точности высказывания Гераклита
можно считать высказываниями современной науки. Фактически энергия это то, из чего
созданы все элементарные частицы, все атомы, а потому и вообще все вещи. Одновременно
энергия является движущим началом. Энергия есть субстанция, ее общее количество не
меняется, и, как можно видеть во многих атомных экспериментах, элементарные частицы
создаются из этой субстанции. Энергия может превращаться в движение, в теплоту, в свет и
электрическое напряжение. Энергию можно считать первопричиной всех изменений в мире.
Греческий философ из Абдеры Демокрит, полагал, что все существующее состоит из
атомов – неделимых далее первоэлементов бытия. Атомы двигались в пустом пространстве.
Таким образом, непрерывным, согласно Демокриту, могло быть только небытие, материя же
оказывалась дискретной. У ранних пифагорейцев существовало понятие «монада», по своим
характеристикам очень близкое к атому Демокрита. Монады, как и атомы, были
неделимыми единицами, и из них, согласно ранним пифагорейцам, состояли все вещи.
Монада пифагорейцев была амером, то есть тем, что лишено всякой протяженности, всякой
величины. Амер – это, по сути, математическая точка. Однако атом Демокрита, судя по
всему, отличался от монады пифагорейцев тем, что был именно физическим объектом, а не
математической сущностью. Атом не мог быть просто амером, так как складывание
лишенных величины амеров не может дать нам физическое тело определенной величины.
Демокрит же утверждал, что все, что есть в нашем мире, состоит из атомов. Путаница
возникает потому, что и пифагорейцы, и Демокрит выделяли два начала: неделимые
индивидуумы («индивидуум» - дословный перевод на латинский греческого слова «атом») и
пустоту. Но Демокрит вкладывал в эти понятия вполне конкретный физический смысл. Его
концепцию следует считать первой разработанной физической системой, причем системой
механистической. Само объяснение физического мира понималось греческими атомистами
как указание на механические причины всех возможных изменений в природе. Все
изменения в качестве своей причины имеют, в конечном счете, движение атомов, их
соединение и разъединение. Объяснять структуру целого, исходя из формы, порядка и
положения составляющих это целое индивидуумов, - такая программа легла в основу целого
ряда научных доктрин. Атомисты разработали метод, который мог быть применен - и
неоднократно применялся - ко всем возможным областям как природного, так и
человеческого бытия.
Атом у Демокрита представляет собой довольно абстрактную единицу материи.
Посредством своего движения и конфигурации они объясняют свойства материи, такие, как
цвет, вкус, запах, но сами они этими свойствами обладать не могут. Атом обладает
свойством существования и движения, имеет форму и пространственное протяжение. Без
этих свойств было бы трудно говорить об атоме. Отсюда следует, что само понятие «атом»
не объясняет геометрическую форму, пространственное протяжение и существование
материи, поскольку эти свойства предполагаются и ни к чему более первичному не сводятся.
Современное понимание элементарных частиц в решении этих вопросов является более
последовательным и радикальным. При описании элементарных частиц мы пользуемся
8
различными образами и представляем их то как частицы, то как волны или волновые пакеты.
Но мы знаем, что ни одно из этих описаний не является точным. Очевидно, что
элементарные частицы не имеют цвета, запаха, вкуса и тем самым они подобны атомам
греческой философии. Но элементарные частицы лишены и других свойств, допускаемых
Демокритом у атомов. Обычные представления геометрии и кинематики, такие, как форма
или движение в пространстве, не могут применяться в отношении элементарных частиц
непротиворечивым образом. Элементарные частицы современной физики значительно
абстрактнее, чем атомы у греков, и именно по этой причине они представляют более
подходящий ключ для понимания природы материи.
В философии Демокрита все атомы состоят из одной и той же субстанции
(материала). Элементарные частицы современной физики имеют массу. Согласно теории
относительности масса и энергия, в сущности, одно и то же, и поэтому можно сказать, что
все элементарные частицы состоят из энергии. Таким образом, энергию можно считать
основной субстанцией, своего рода первоматерией. Фактически она обладает существенным
свойством, принадлежащим понятию субстанции: она сохраняется. Энергия есть движущее
начало. Она рассматривается как конечная причина всех изменений и может превращаться в
материю, теплоту и свет. Борьба противоположностей, характерная для философии
Гераклита, находит здесь свой прообраз во взаимодействии различных форм энергии.
Строение вещества по Платону
Свою физическую концепцию Платон развивает в диалоге «Тимей». Платон не был
атомистом, и, по свидетельству Диогена Лаэртского, до такой степени не одобрял
философию Демокрита, что у него было желание сжечь все его книги. Платон выступал
скорее как логик, чем физик, поскольку базовой методологической предпосылкой
платонизма является положение о том, что познание возможно только в отношении идей, а
не физического мира, данного в чувственном опыте. Но Платон в своем учении соединил
представления, близкие атомистам, с представлениями пифагорейской школы и философией
Эмпедокла.
Платон развивал «геометрическую теорию» строения вещества, основанную на
математическом подходе. Основной вопрос Платона: Как возможно познание вещества,
которое существует лишь потому, что переходит из одного состояния в другое? Для Платона
элементы вещества являются не субстанциями, а изменчивыми определениями, атрибутами.
В основе всех вещественных изменений лежит первоматерия как неизменный субстрат.
Огонь, вода, воздух и пр. – это модусы первоматерии или ее акциденции, не то, из чего она
состоит. Но первоматерия в своем движении сортирует вещества, обособляя их друг от
друга. Это упорядочивание элементов управляется законами пропорций, которые являются
математическим выражением гармонии. Так Платон приходит от «логики видимости»
натурфилософов к «логике сущности», построенной на пифагореизме.
Но поскольку Платон считает отдельные элементы телами, он обращается не просто к
математике, а к геометрическому их представлению. Так, поверхность – это треугольник, а
линия – отрезок. Чтобы иметь материал для построения элементарной телесности стихий,
надо установить виды фундаментальных треугольников. Их два: 1) прямоугольные
равнобедренные; 2) прямоугольные неравнобедренные, но лишь те, в которых квадрат
большего катета в три раза больше квадрата меньшего (если сложить два таких
треугольника, мы получим равносторонний треугольник).
Следовательно, элементы могут переходить друг в друга, или взаимопревращаться, но
у этого процесса есть строгие ограничения, налагаемые различием исходных треугольников.
Из треугольников складываются объемные тела (все – правильные многогранники). Огонь –
это тетраэдр (4, треугольная пирамида), воздух – это октаэдр (8), вода – это икосаэдр (20).
Все они слагаются из неравнобедренных треугольников. Из равнобедренных треугольников
слагается куб, соответствующий земле. Как мы можем видеть, Платон сопоставил основные
правильные геометрические тела, открытые пифагорейцами, с четырьмя элементами
9
Эмпедокла. Но оставался еще додекаэдр (12), для которого элемента «не хватило». И тогда
Платон ввел пятый элемент – эфир, предполагаемо самый легкий и как бы наименее
материальный из всех. С этим элементом Платон и соотнес додекаэдр, который по форме
ближе всех остальных фигур к сфере. Правильные тела можно разложить на треугольники, а
из этих треугольников можно построить новые правильные тела. Например, тетраэдр и два
октаэдра можно разложить на 20 равносторонних треугольников. Эти последние можно
вновь соединить и получить икосаэдр, то есть один атом огня и два атома воздуха в
сочетании дают один атом воды.
Платон находит структурно-геометрические аналоги для физических свойств. Так,
кубическая структура обуславливает устойчивость и неподвижность земли как макротела.
Генезис «внешних» свойств в платоновской теории вещества определяется как проявление
«внутренних» свойств структуры в макромасштабе. Такой подход напоминает приемы
современного научного мышления.
Треугольники нельзя считать материей, это именно геометрические фигуры. Только в
том случае, если треугольники объединены в правильные тела, возникает частица материи.
Поэтому наименьшие частицы материи не являются первичными образованиями, как это
имело место у Демокрита, и они представляют собой математические формы. Понятно, что в
этом случае форма имеет большее значение, чем вещество, из которого форма состоит или в
которой оно выявляется.
Как мы видим, еще одним существенным отличием платоновского подхода от
атомистики Демокрита было то, что элементы у Платон не только делимы, но и способны
взаимопревращаться, тогда как атом Демокрита обладал атрибутами парменидовского
бытия, то есть был вечен, неделимым и самотождественным. Современная физика выступает
против положения Демокрита и встает на сторону Платона. Элементарные частицы не
являются вечными и неразложимыми единицами материи, фактически они могут
превращаться друг в друга. При столкновении двух элементарных частиц, происходящем
при большой скорости, образуется много новых элементарных частиц; возникая из энергии
движения, столкнувшиеся частицы могут при этом исчезнуть. Такие процессы наблюдаются
часто и являются лучшим доказательством того, что все частицы состоят из одинаковой
субстанции - из энергии.
Но сходство воззрений современной физики с воззрениями Платона и пифагорейцев
простирается еще дальше. Элементарные частицы, о которых говорится в диалоге Платона
«Тимей», это не материя, а математические формы. «Все вещи суть числа» - положение,
приписываемое Пифагору. В современной квантовой теории, как пишет В. Гейзенберг, едва
ли можно сомневаться в том, что элементарные частицы суть математические формы, только
гораздо более сложной и абстрактной природы. Современная экспериментальная физика
собрала большой материал о свойствах элементарных частиц и их превращений.
Теоретическая физика теперь может попытаться, исходя из этого материала, вывести
основной закон для материи, выраженный волновым уравнением. Это уравнение
рассматривается как математическое представление всей материи, а не какого-либо
определенного вида элементарных частиц или полей. Оно математически эквивалентно
сложной системе интегральных уравнений, которые, как говорят математики, обладают
собственными значениями и собственными решениями. Собственные решения представляют
элементарные частицы. Следовательно, они суть математические формы, которые заменяют
правильные тела пифагорейцев.
Математическая симметрия, играющая центральную роль в правильных телах
платоновской философии, составляет ядро основного уравнения. Следовательно,
современная физика идет вперед по тому же пути, по которому шли Платон и пифагорейцы.
Это развитие физики выглядит так, словно в конце его будет установлена очень простая
формулировка закона природы, такая простая, какой ее надеялся видеть еще Платон.
Но при всех сходствах существует и очень большое различие между современным
естествознанием и греческой философией, и одно из важнейших состоит именно в
10
эмпирическом основании современного естествознания. Со времен Галилея и Ньютона
естествознание основывается на тщательном изучении отдельных процессов природы и на
требовании, согласно которому о природе можно делать только высказывания,
подтвержденные экспериментами. Мысль, что посредством эксперимента можно выделить
процессы природы, чтобы изучить их детально и при этом вскрыть неизменные законы,
содержащиеся в постоянном изменении, не возникала у греческих философов. Поэтому
современное естествознание покоится на более скромном и более прочном фундаменте, чем
античная философия. Но возможность экспериментально доказать справедливость
высказывания с очень большой точностью придает высказываниям современной физики
больший вес, чем тот, которым обладали высказывания античной натурфилософии.
Физика Аристотеля
Аристотель создал систематическую науку о природе – физику, и первый попытался
научно определить центральное понятие физики - движение. Подход пифагорейцев и
Платона к изучению природы был ориентирован на познание математических отношений, а
все, что составляло предмет познания античной математики, как мы уже видели, исключало
движение и изменение. Именно то обстоятельство, что античная математика изучала только
статические связи и отношения, привело Аристотеля к убеждению, что физика не может
быть наукой, построенной на базе математики, ибо физика есть наука о природе, а природе
присуще изменение, движение.
Аристотель определяет движение как переход от потенции к энергии, от возможности
к действительности. Движение поэтому есть для Аристотеля нечто нормированное этими
двумя «точками», которые кладут предел движению, и потому позволяют его определить.
Движение идет всегда от чего-то к чему-то. Но по этой же причине Аристотель не в
состоянии абстрагироваться движущегося тела. Достижением физиков Нового времени по
сравнению с Аристотелем стал анализ движения материальной точки, то есть движения,
безразличного к движущейся субстанции. У Аристотеля же движение всегда остается
предикатом и никогда не становится самостоятельным субъектом.
Аристотель выделял шесть типов движения: возникновение, уничтожение,
увеличение, уменьшение, изменение и перемещение. Первым типом движения, по
Аристотелю, выступает перемещение, а среди всех типов перемещения исходным и
наиболее совершенным следует считать круговое движение Солнца по небесному своду. В
качестве основания приводит довод о непрерывности: непрерывным движением может быть
только перемещение, а потому оно – первое.
Перемещение определяется через «то, что движется» (субстанция), «где движется»
(пространственные характеристики) и «когда движется» (временные характеристики).
Следовательно, необходимо разобраться с аристотелевскими представлениями о
пространстве и времени.
Те, кто пытался определить время до Аристотеля, связывали его с круговым
движением небесной сферы. Аристотель, однако, не согласен с ними: хотя время, говорит
он, и связано с круговращением, но оно само не есть круговращение. Время, правда, всегда
представляется каким-то движением, и оно действительно не существует без движения.
Когда мы не замечаем никакого движения, то мы, говорит Аристотель, не замечаем и
времени. Распознаем же мы время, когда разграничиваем движение, воспринимая один раз
одно, другой раз другое, а между ними нечто отличное от них. Но время нельзя
отождествлять с движением, так как во времени можно и двигаться, и покоиться. Время
связано с движением, поскольку последнее связано с числом. Число же, говорит Аристотель,
имеет двоякое значение: мы называем числом, с одной стороны, то, что сосчитано и может
быть сосчитано, с другой - посредством чего мы считаем. Время, согласно Аристотелю, есть
число в первом смысле, то есть именно число считаемое, а не посредством которого считаем.
Время, таким образом, определяется Аристотелем как число движения по отношению к
предыдущему и последующему. Если время - число движения, а с помощью числа мы
11
измеряем ту или иную величину, то, стало быть, движение измеряется временем. Но
аристотелевское время не является безразличным к существующим в нем субстанциям.
Время, согласно Стагириту, есть причина уничтожения. Время есть мера существования
вещи, ее движения и покоя, и эта мера у каждой вещи своя. Время отмеряет каждому сущему
его срок; поэтому оно не вполне «равнодушно» к своему содержанию. Этим аристотелевское
понимание времени более всего отличается от того абстрактного определения, что было
выработано в классическом европейском естествознании 16 – 17 веков.
Что касается пространства, то Аристотель не допускал пустоты, что отличало его и от
пифагорейцев, и от Демокрита. Вместо понятия «kenon» (пустое пространство), Аристотель
использует слово «topos» (место). Аристотель приводит собственно физические аргументы
против возможности пустоты. Если бы существовала пустота, говорит он, то в ней движение
было бы невозможным (утверждение, противоположное атомистике Демокрита). В пустоте
нет различий, она индифферентна, поэтому у тела в пустоте нет никаких оснований
двигаться в ту или иную сторону. По этому же принципу некоторые античные физики,
включая Аристотеля, обосновывали и неподвижность Земли: она покоится в пустоте как
некоем равномерном и индифферентном окружении.
Самое главное отличие Аристотеля от атомистов одновременно выявляет главную
черту перипатетической физики. У атомистов пространство — это пустой промежуток,
позволяющий атомам двигаться. Аристотель же не допускает никакого «пустого
промежутка» между телами. «Нет особого промежутка помимо величины помещающегося
тела» («Физика», 4 кн., 4 гл.) Таким образом, Аристотель постулирует возможность
движения при отсутствии промежутков. В качестве примера он приводит движение в
сплошных средах. Здесь тела, передвигаясь, уступают друг другу место.
Аристотель вводит понятие места, чтобы объяснить, что не существует протяжения,
отличного от тел («Физика», 4 кн. 6 гл.). Место, как и занимающее его тело, имеет три
измерения: длину, ширину, глубину. Но при этом место не есть тело! Место нельзя
отождествить ни с материей, ни с формой, поскольку они неотделимы от тела, а место —
отделимо. Если находящаяся в нем вещь гибнет, место не пропадает. Аристотель прибегает к
аналогии между местом и сосудом: сосуд — это переносимое место, не имеющее ничего
общего со своим содержанием, а место — это не передвигаемый сосуд. Эта аналогия с
сосудом позволяет выделить ключевые характеристики места у Аристотеля, из которых
видно, что перипатетическая физика не допускает никакого релятивизма:
- место объемлет тот предмет, местом которого является;
- место не есть что-либо, присущее самому предмету;
- первичное место не меньше и не больше предмета;
- место отставляется предметом и отделимо от него;
- всякое место имеет верх и низ.
Аристотель полемизирует не только с атомистами, которые отождествляли
пространство с пустотой, но и с Платоном, отождествлявшим его до известной степени с
материей («Тимей»). По мнению Аристотеля, отождествление пространства и материи
возможно для математика, описывающего статичный мир. Но физика должна создать
кинематику для описания движения. Если бы не движение, то понятие места вообще не
следовало бы исследовать. Значит, место — это не столько то, в чем тело покоится, сколько
то, в чем оно движется. Место есть нечто устойчивое, позволяющее определить подвижное и
изменчивое.
Аристотель определяет место, исходя из принципа непрерывности: место есть первая
неподвижная граница объемлющего тела, то есть граница, которая соприкасается с телом без
промежутка между ними. Но эта граница обусловлена наличием другого тела. Поэтому тело,
снаружи которого не находится никакое другое тело, не находится ни в каком месте (то есть
оно находится нигде). Таким телом является только Космос, который, по Аристотелю, не
имеет места, а существует нигде.
12
Место играет в физике Аристотеля роль некоторой системы абсолютных координат,
по отношению к которой только и можно говорить о движении. Тело движется от места к
месту. Поэтому аристотелевский Космос имеет абсолютный верх и абсолютный низ,
абсолютный центр и абсолютную периферию. Если отрицать абсолютные места, считает
Аристотель, то тогда невозможно будет отличить движение от покоя.
Понятие места служит у Аристотеля для разграничения естественных и
насильственных движений. Всякое движение у Аристотеля подразумевает движимое и
движущее. Насильственное движение — это такое, где движущим выступает другое тело.
Естественное движение — это такое, где движущим является не тело, а естественное место.
Например, естественное место тяжелых тел – земля, поэтому все тяжелое падает вниз. Таким
образом, место обладает определенной силой, что позволяет ему воздействовать на тела.
Аристотель не признавал самодвижения тел. Если есть факт движения, то мы обязаны
найти двигатель, который, к тому же, находится в непосредственном контакте с движущимся
телом. Но если мы подбрасываем камень (простейший пример насильственного движения),
то камень продолжает лететь какое-то время, не будучи в контакте с рукой-двигателем.
Чтобы объяснить этот парадокс, Аристотель прибегает к понятию среды как посредника
движения. При движении брошенных тел имеет место последовательная передача движения
через ближайшую к ним среду. Среда, таким образом, является промежуточным двигателем
(ибо первым двигателем здесь был бросающий).
Аристотелевские теории строения вещества
Аристотель развивал качественную теорию строения вещества и на этом основании
он подвергал критике все предыдущие подходы и в особенности – количественный подход
Платона. Данной критике посвящены 1-я главу 3-ей книги трактата «О небе». Аристотель
рассматривает здесь подлунный мир, его устройство и генезис тел. Тела надлунного мира
вечны, а тела подлунного – возникают и разрушаются. Аристотель выделил здесь четыре
подхода к механике генезиса тел: элеаты, Гесиод и древнейшие физики, Гераклит, Платон.
Самое первое критическое замечание в адрес Платона – это указание на несоответствие его
теории «многим пунктам математической истины». Какие же это истины?
Во-первых, согласно Аристотелю, из неделимых элементов нельзя сложить делимые
объекты. В «Физике» Аристотель показывает, что не существует неделимых элементов
длины. Аристотель указывает на то, что математические объекты континуальны, т. е.
непрерывны и делимы до бесконечности. В этом и состоит основное допущение Аристотеля,
на котором он строит свою критику Платона. «Все свойства тел являются делимыми»
говорит Аристотель в своем трактате «О небе». Делимость свойств сталкивается с
неделимостью элементов: делимое не может быть атрибутом неделимого, поэтому
платоновская теория не может объяснить свойства и качества тел.
Аристотель выделяет три типа делимости: собственно делимость, делимость по виду
(делимость рода на виды: например, цвет как род делится на белое и черное как свои
элементарные основные виды) и делимость по совпадению (так делятся, по Аристотелю все
свойства и качества тел). На этом последнем стоит остановиться поподробнее. Возьмем
любое свойство тела, например, вес. Если мы будем делить тело, то будет делиться и его вес.
Если тело имеет вес, то и все его составные элементы также должны иметь вес. Аристотель
не может принять разрыва между свойствами и качествами тел на макроуровне (здесь:
уровне явлений, объясняемый уровень) и элементами или началами тел, то есть микроуровне
(объясняющий уровень, уровень сущностей). Логика аристотелевской мысли такова: уровень
элементарных сущностей строится по подобию уровня явлений. Таким образом, Аристотель
не допускает возникновения новых свойств и качеств у вещей, если их не будет в
фундаменте физического мира.
Другим методологическим принципом Аристотеля выступает следующее утверждение:
начала должны быть того же рода, что и их объекты. Чувственно воспринимаемые вещи
13
состоят из чувственно воспринимаемых начал, вечные – из вечных начал, преходящие – из
преходящих, и т.д. У Аристотеля сам характер сущности задается объясняемым явлением,
поэтому самый простой и верный способ проверки объяснения — это проверка на
соответствие его наблюдаемым явлениям.
Аристотель считает, что злоупотребление отвлеченными рассуждениями, искажает
наблюдение фактов. Поэтому он противопоставляет тех, кто рассуждает умозрительно
(logikos), и тех, кто мыслит физически (physikos), сохраняя специфические особенности
вещей и чувственно воспринимаемое многообразие их качеств. Но этот «сенсуализм»
Аристотеля имеет свою рациональную основу, коренящуюся в его метафизике.
У самого Аристотеля можно выделить две теории элементов. Одну из них он развивает
в 4 книге трактата «О небе», а другую — в трактате «О возникновении и уничтожении».
Трактат «О небе»
Согласно теории, развиваемой в этом трактате, элементы соединяются с определенным
механическим движением. Впервые корреляция между элементом и типом космического
движения была внесена Платоном, но у него эти кинематические свойства стихий вытекают
из геометрической теории вещества. Аристотелевская же теория не связывает движение со
структурой вещества.
Основными космологическими свойствами Аристотель считает свойства тяжелого и
легкого. То есть на первый план выдвигаются качества, функции или действия вещей и
соответствующие им потенции или силы, а не фигуры и числа, как было у Платона.
Аристотель выделяет тяжелое и легкое именно потому, что эти качества легко соотнести с
определенными типами движений. Тяжелое и легкое могут рассматриваться как внутренне
присущие вещам подлунного мира начала их космической подвижности.
Аристотель выделяет абсолютный и относительный смысл этих качеств. Определение
абсолютного смысла тяжелого и легкого дается в контексте основной структуры
космического пространства. Для Аристотеля космос — это конкретное неоднородное
пространство, структура которого задается наличием абсолютного центра и абсолютной
периферии. Эта структура — центр / периферия — обосновывается метафизическими
выкладками: все космические тела, процессы и движения, по Аристотелю, должны быть
конечны. По сути Аристотель не выходит за рамки традиционных представлений,
приписывающих противоположностям фундаментальную роль в мироустройстве. Именно
принцип противоположностей означает необходимость конечности как космоса, так и
движения. Центр космоса — это абсолютный конец всякого движения. Периферия — это
просто противоположность абсолютному центру. Наличие центра и периферии определяет
наличие верха и низа мироздания.
Для Аристотеля космос неоднороден и анизотропен. Поэтому направления движения
неравноценны, как неравноценны и полюса его структуры. Таким образом, Аристотель
полностью воплощает принцип: «различное — значит неравноценное», то есть бинарные
оппозиции у Аристотеля всегда встроены в определенную аксиологическую матрицу.
«Верх» для Аристотеля является более изначальным и более ценным по природе, чем «низ».
Таковы же отношения между правым и левым, мужским и женским и т.д.
Исходя из этих посылок Аристотель строит свою классификацию «естественных»
движений, то есть движений, присущих вещам «по природе», обусловленных сущностью
вещей. Есть вещи, говорит Аристотель, которые по природе движутся от центра, и другие
вещи, которые по природе движутся к центру. Эти движения и лежат в основе свойств
легкого и тяжелого. «Под абсолютно легким мы понимаем то, что движется к периферии, а
под абсолютно тяжелым то, что движется к низу, в направлении к центру» («О небе», 308а,
29-30). Этим Аристотель объясняет и эффект тяготения.
Космологическое мышление Аристотеля предметно, или конкретно. Если он мыслит
число, то это число чего-то, если движение — то это движение вверх или вниз. И здесь
Аристотель отступает назад: так в понимании числа он оказывается ближе к пифагорейцам,
14
чем к Платону. Но одновременно Аристотель делает и шаг вперед, поскольку отвергает
существование беспредельного пустого и независимого от тел пространства.
Итак, можно проследить ключевые сходства и отличия Аристотелевского трактата «О
небе» и платоновского «Тимея». Сходство состоит в том, что тот и другой признает наличие
«естественных мест», к которым тела стремятся по природе, и насильственных движений,
вырывающих тела из естественного места. Отличие же состоит в следующем: для Платона
вес — это функция количества вещества. То, что больше, то и тяжелее, потому что труднее
поддается насильственному движению. Значит тяжесть и легкость — относительные меры
сопротивления тел внешним воздействиям. Этого положения Аристотель не принимает.
Другое положение Платона, также отвергнутое Аристотелем, можно резюмировать так: тела
тяготеют к подобным им телам пропорционально количеству однородных частей, из
которых все они состоят.
Аристотель не приемлет количественного подхода потому, что в нем нет места
абсолютным значениям легкости и тяжести. Абсолютность космической структуры у
Аристотеля составляет предпосылку его качественной теории веса. Количество, форма и
масса превращаются у Аристотеля во второстепенные вспомогательные факторы.
Аристотелевская физика строится на обыденном опыте и исходит из посылок
обыденного мышления. Он постоянно апеллирует к наблюдению и к здравому смыслу: это
своеобразная «физика до физики». Но это вовсе не означает, что у Аристотеля в физике
отсутствуют общетеоретические или метафизические понятия. Метафизическая платформа
Аристотеля — это выделение формы и материи, акта и потенции. Эти понятийные пары
лежат в основе его объяснительных схем. И здесь обнаруживается фундаментальная
противоречивость аристотелевской физики. Он критикует Платона (и атомистов) за слишком
отвлеченные, абстрактные логические построения, но сам развивает еще более абстрактный,
универсальный понятийный аппарат.
Поэтому его качественный подход на деле оказывается не столько физическим, сколько
метафизическим: это сочленение эмпиризма и универсальных абстракций.
Итак, каким же образом Аристотель сочленяет свою метафизику с эмпирией
физического мира? Во-первых, отношение формы к материи есть отношение того, что выше,
к тому, что ниже. Кроме того, «естественное место» есть собственная форма
соответствующей стихии. Поэтому движение тела к своему естественному месту есть
самореализация тела, осуществление его собственной формы, содержащейся в нем
потенциально и реализующейся в акте «естественного движения». То есть механизм
движения стихий описывается в соответствии с понятием энтелехии. Если движущееся
движется к своей форме, то нет принципиального различия между качественными
изменениями и перемещением.
На основании своей теории веса Аристотель производит дедукцию четырех основных
элементов. «Тяжелое и легкое существуют как два тела, так как имеются два места — центр
и периферия. Отсюда следует, что существует также промежуточная область между двумя
этими местами, которая получает каждое из своих двух определений по отношению к
другому крайнему месту: так как то, что является промежуточным между двумя
крайностями, является сразу и периферией и центром» («О небе», IV, 312а 7-10).
Промежуточная область — это область относительных космологических определений: тут
есть относительный центр и относительная периферия. Абсолютно легким элементом
является огонь, а абсолютно тяжелым — земля. Элементами промежуточной области
являются вода и воздух. Вода имитирует в относительном модусе абсолютную тяжесть
земли, а воздух — абсолютную легкость огня, но опять же в относительном модусе.
Трактат «О возникновении и уничтожении»
В этом своем трактате «О возникновении и уничтожении» Аристотель рассматривает
качества тел в их соотнесенности со становлением (генезисом). Аристотель различает
генезис (возникновение) и кинезис (движение). Если генезис относится к «что» вещи, то
кинесис — к «как» вещи.
15
Аристотель строит свою концепцию генезиса, возникновения и уничтожения вещей,
опять же отталкиваясь от критического анализа своих предшественников: Анаксагора,
Эмпедокла, атомистов и Платона. Анаксагора Аристотель упрекает в том, что, признавая
бесконечное множество начал, он не может отличить возникновение от качественного
изменения. Выше, чем Анаксагора и Эмпедокла, Аристотель оценивает атомистов,
поскольку те внесли ясность в понимание различий между понятием возникновения и
понятием качественного изменения вещи. Но Демокрит не устраивал Аристотеля потому,
что отрицал в природе вещи большинство из тех качеств, которые делают ее доступной
чувственному восприятию. (У Демокрита эти качества — всего лишь результат комбинации
и движения атомов). Платона, как уже говорилось, Аристотель упрекал за то, что тот
редуцировал физические тела к математическим объектам.
Свою собственную теорию генезиса в физическом мире Аристотель строит на ряде
предпосылок:
1)
привлекает основные понятийные пары своей метафизики: материя / форма,
потенция / акт.
2)
Аристотель распространяет на натурфилософию некоторые логические
понятия. В первую очередь, понятия индивида и рода. Род, по Аристотелю,
сохраняется при возникновении и уничтожении индивидов.
3)
Ведущей формой движения природы Аристотель (как и Платон) считает
круговое, точнее, циклическое замкнутое движение.
Ведущим методологическим принципом выступает требование анализа только
ближайших причин возникновения вещей. Это приводит к тому, что в сочинениях
Аристотеля по метеорологии и биологии отсутствует понятие первоматерии. Оно появляется
только там, где рассматривается возникновение самих элементов и их простое
взаимопревращение.
Итак, что есть генезис по Аристотелю? Возникновение вещи есть переход из ее
потенциального бытия в энтилехиальное, то есть в бытие актуализированной формы. Но
Аристотель строит иерархическую онтологию, поэтому он говорит о степенях реальности.
Так, абсолютным генезисом будет только переход в огонь, хоть это и подразумевает
уничтожение некоторых вещей, например, земли. Возникновение же земли будет лишь
относительным, а не абсолютным генезисом, хотя и влечет за собой абсолютное
уничтожение огня. Таким образом, четыре космологические элемента у Аристотеля не
равноценны и несимметричны. Он приписывает им разные онтологический статус: огонь —
это сущее, а земля — не-сущее. Огонь позитивнее, реальнее и совершеннее, чем земля. Этот
иерархизм в отношении элементов несвободен от мифологической традиции. Так у
Эмпедокла эти же четыре элемента напрямую идентифицировались с мифологическими
персонажами. И хотя у Аристотеля нет такого прямого отождествления, но влияние
олимпийской иерархии очевидно.
Но эта мифологическая иерархия входит у Аристотеля в противоречие с требованием
равнозначности и равноправия элементов, диктуемым научным сознанием. Здесь мы
наблюдаем еще одну двойственность аристотелевского подхода, обусловленную
сосуществованием мифологического и рационального. Элементы существуют как первые,
самые простые тела, обладающие минимальным уровнем формальной организации.
Элементы возникают друг из друга так, что в этом процессе их взаимного порождения нет
привилегированного элемента, который можно было бы считать исходным для всех
остальных. Все элементы возникают из всех других в циклическом процессе. Таким образом,
с одной стороны, он выступает против исключительности какого-либо элемента, а с другой
стороны, сам ставит огонь в привилегированное положение.
У Аристотеля нет различения между органической и неорганической природой с
современном смысле, хотя формально он отличает минеральный мир от растительного и
животного. Природа у Аристотеля выступает как единое целое, и даже единый организм.
Таким образом, физика Аристотеля строится на двух установках: биологизм и
16
телеологичность. Поэтому логика, обосновывающая генезис вещей, оказывается логикой,
обосновывающей существование и воспроизводство биологических форм. В этом ключе
Аристотель оформляет и концепцию элементарных качеств, которые действуют как
самостоятельные силы.
Необходимым условием взаимодействия является, по Аристотелю, противоположность
активного – пассивного. С ее учетом и осуществляется отбор элементарных качеств. Кроме
того, качества отбираются таким образом, чтобы был возможен циклический генезис
элементов. Это приводит к попарному сочетанию качеств в каждом элементе. Если бы
Аристотель ограничился приписыванием каждому элементу одного качества, то в цикле
взаимопереходов элементов образовались бы разрывы. Так, был бы невозможен переход от
влажного к холодному, так как влажное и холодное не является противоположностями.
Вывод элементов в трактате «О возникновении и уничтожении вещей» отличается от
дедукции элементов в трактате «О небе». В последнем Аристотель выделяет четыре
элемента, но всего два качества — легкое и тяжелое. Поэтому только два элемента являются
исходными и основными (огонь и земля), а остальные — побочными, зависимыми и
промежуточными. Такую дедукцию можно назвать ступенчатой или двухстадийной. В
книгах «О возникновении и уничтожении вещей» эта дедукция строится иначе: здесь нет
ступенчатости, нет неравноправности среди элементов, зато есть соответствие между числом
качеств и числом элементов. Более того, здесь качества помогают объяснить не только
космическое размещение элементов (что вверху, а что внизу), но и их возникновение, их
внутренние взаимопревращения.
Элементарные качества также иерархизируются Аристотелем. Основой для этого
служит то ощущение, которое улавливает качество. На первый план Аристотель ставит
осязание. Для него осязаемость есть синоним телесности и гарант реальности. Быть
чувственно воспринимаемым вообще, значит быть осязаемым телом. Противоположности,
устанавливаемые осязанием, получают привилегированный статус: теплое – холодное, сухое
– влажное. Они более связаны с сутью тел, чем зрительные качества (светлое - темное) и
вкусовые (горькое - сладкое). Теплое – холодное выступает как активная пара, а сухое –
влажное — как пассивная. Активная пара сама производит воздействие, а пассивная —
испытывает воздействие. Но активность горячего – холодного определена в механическом
духе. Это не способность нагревать или охлаждать, а способность соединять тела в
пространстве: горячее соединяет однородные тела, а холодное – как однородные, так и
разнородные. Аналогично (т.е. механически) определена и пассивность влажного – сухого.
Однако если мы обратимся к взаимному переходу элементов, то увидим, что сухое и
влажное также могут выступать в активном модусе. Так огонь определяется Аристотелем
как горячий и сухой. Если сухое преодолевается влажным, то получается воздух (он горяч и
влажен). Таким образом, генезис элементов в результате их взаимоперехода превращается в
непрерывную борьбу, драматический поединок качеств.
Аристотель различает три способа превращения элементов:
1)
Последовательное превращение одного элемента в другой (когда изменяется
одно качество). Огонь (горячий и сухой) — воздух (горячий и влажный) —
вода (холодная и влажная) — земля (холодная и сухая) — опять огонь
(горячий и сухой). Такие превращения происходят легко и быстро.
2)
Одновременное превращение сразу двух качеств: огонь (горячее и сухое) —
вода (холодная и влажная); воздух (горячий и влажный) — земля (холодная и
сухая). Такие переходы осуществить труднее и они требуют больше времени.
3)
Переход сразу двух взаимодействующих элементов (не являющихся
последовательными в смысле естественного порядка их местоположения в
космосе) в какой-либо один из оставшихся. При этом у каждого элемента
удаляется по одному качеству. Огонь (горячее и сухое) + вода (холодная и
влажная) — земля (холодная и сухая) + горячее + влажное.
17
Этот последний способ интересен тем, что здесь происходит распад элементов на
качества и последующая потеря элемента (в нашем примере потерян воздух). Этот тип
превращений показывает, что для Аристотеля по-настоящему элементарными выступают
именно качества, а не элемента. Последние суть всего лишь неустойчивые сочетания
качеств. Элемент формален, а качества составляют его реальное содержание.
Если первые два типа превращений можно вывести логически, то последний тип
Аристотель выводит эмпирически. Однако аристотелевское эмпирическое обоснование
принципиально отлично от такового в современной науке. Аристотель не выходит за рамки
обыденного опыта. Примером тому может служит его иллюстрация третьего типа
превращений: «Ощущение подтверждает этот способ возникновения огня: на самом деле
пламя есть по преимуществу огонь, но пламя происходит из дыма, который горит, а дым
построен из воздуха и земли». В силу приближенности теории элементов к обыденному
опыту у Аристотеля и не возникало особых проблем с ее обоснованием и согласованием с
ним. Основное понятие этой теории (качество), с одной стороны, фиксирует сущность
явления, а с другой, оказывается эмпирической констатацией наблюдаемого явления1.
Средневековая наука
Физика в том смысле, какой в нее вкладывали средневековые ученые, была наукой о
движении, и в этом вопросе, как и во многом другом, она следовала за Аристотелем. Однако
особенностью средневековой науки по сравнению с аристотелевской было то, что наряду с
реальными в них исследовались и гипотетические ситуации.
Примечательно, что выйти за пределы аристотелевской парадигмы ученым помогла
именно влияние христианской теологической доктрины. Пьер Дюгем писал: «Если бы нам
потребовалось определить дату рождения науки Нового времени, наш выбор, несомненно,
пал бы на 1277 год, когда епископ Парижский торжественно провозгласил, что может
существовать множество миров, и, не впадая в противоречие, можно считать, что система
небесных сфер могла быть приведена в движение некоторым прямолинейным движением».
В 1277 году Парижский епископ Этьен Тампье осудил 219 положений,
согласующихся с аристотелевской физикой, но расходящихся с католической верой. Дело в
том, что аристотелевский космос был абсолютно детерминирован, что не вязалось с
утверждением христианской теологии о всемогуществе Бога. Авторитет аристотелизма был
подорван, что открыло возможности выхода за рамки его космологической и
метафизической системы. Тезис о всемогуществе Бога провоцировал ученых постоянно
ставить «мысленные эксперименты», исследовать области логически возможного и тем
самым подготавливать почву для новых концепций. Однако это тезис вызвал и ряд сомнений
в познавательных возможностях человеческого разума.
Таким образом, за два века до Галилея средневековые ученые уже исходили из
неоплатонического тезиса о том, что все возможное может быть реализовано в будущем,
благодаря всемогуществу Бога. Пустота, которой по Аристотелю, не должно быть, все же,
согласно ученым Средневековья, могла быть продуктом абсолютной Божественной
потенции.
Теории движения и проблематизация положений физики Аристотеля
В случае с брошенным камнем, средой выступает воздух, который некоторое время
сохраняет способность приводить в движение тело, непосредственно соприкасающееся с
ним. Однако такое объяснение начинает казаться натянутым, когда мы применяем его к
работе катапульты: воздух – слишком легкая субстанция, чтобы двигать тяжелые ядра. Здесь
аристотелевское объяснение утрачивает одно из своих главных достоинств - убедительность
в терминах обыденного опыта. Поэтому уже в эпоху эллинизма начинается пересмотр
гипотезы Аристотеля. В VI в. н.э. Иоанн Филопон, известный под именем Грамматика,
1
См. Визгин В.П. Генезис и структура квалитативизма Аристотеля — М., 1982, 429с.
18
положил начало теории, получившей впоследствии название теории «impetus impressus».
Филопон считал, что разумнее допустить непосредственную передачу энергии от
движущего/бросающего движимому/брошенному. В последствии в пользу импетус-гипотезы
сработал и принцип «экономии мышления»: не объясняй посредством большего то, что
можно объяснить посредством меньшего.
Своеобразие аристотелевской физической доктрины состоит в том, что картина
движения в ней задается через состояние покоя. Естественное движение – это просто
движение к состоянию покоя, соответствующему данному телу. Оно не имеет других
определений, кроме указания конечного пункта, места, в котором телу естественно
покоиться. В насильственных движениях, где естественное место не является
определяющим, конечный пункт все же задан целевым устремлением двигателя. Тем не
менее, Аристотель мало что говорит о самой природе движения. Ясно только, что это
состояние, противоположное покою.
Средневековые мыслители критически подошли к фундаментальному принципу
аристотелевской физики, предполагающему наличие прямого непрерывного действия
двигателя для объяснения любого локального движения. В случае со снарядом, к примеру,
необходимо для приведения его в движение допустить наличие иного двигателя, отличного
от произведшего начальное движение (руки, толкающей снаряд, или чего-то другого). Чтобы
не допустить этих осложнений, Аристотель был вынужден ввести дополнительное
объяснение, откровенно противоречащее тому, что может быть доказано экспериментально.
Он, например, говорил, что камень, брошенный толчком руки, продолжает двигаться,
благодаря поддержке вихревых потоков воздуха. Дело в том, что в аристотелевской
концепции насильственного движения, таковое может осуществляться только при наличии
непосредственного контакта с движущим. Если рука уже не касается камня, то функцию
движущего должно выполнять что-то другое, например, воздушные потоки. Эта теория не
так уж абсурдна, если принять во внимание абсолютную непрерывность среды, то есть
отсутствие пустого пространства. К тому же Аристотель был ограничен концептуальными
схемами своей собственной метафизики, в рамках которой было невозможно, чтобы
движущееся тело заключало принцип движения в себе.
Впоследствии было показано, что воздух не только не помогает продлению движения,
напротив, тормозит его, создавая трение, поэтому своим движением снаряд обязан не
воздуху, а силе, полученной телом в момент броска. Такая сила прямо пропорциональна весу
(quantitas materiae, количеству материи): более тяжелые тела, в единстве с объемом, будут
лететь дальше, пока от сопротивления воздуха и земного тяготения движение не
аннулируется.
Эта сила, полученная в момент броска, получила название «импетуса», что означает
напор, силу, стремление, способность к движению. Теорию импетуса называют также
теорией «запечатленной способности», так как двигатель как бы запечатлевает способность
к движению в движущемся теле, которая и двигает тело в отсутствие первоначального
двигателя.
Примечательно, что идею «запечатленной способности» использовали и противники
импетус-гипотезы. Например, Аквинат говорил о том, что запечатленный нажим
первоначального насильственного двигателя передается воздуху. Однако схоласт 14 века,
Франциск из Маршии, опровергает Фому, используя принцип экономии мышления Оккама.
Зачем приписывать запечатленную способность к движению воздуху, когда ее сразу можно
приписать самому камню?
Парижский физик середины XIV века Жан Буридан опроверг положение Аристотеля,
применив метод эмпирической фальсификации. При этом «опыт» был чисто умозрительным.
Но ссылка на возможные опыты была достаточной для несогласия с Аристотелем. Буридан
показывает, что при помощи «импетус-гипотезы» возможно гораздо экономнее и
непротиворечивие объяснить феномен движения. «Если существует больше материи, то при
этом количестве тело может получить больший и более интенсивный импетус. В плотном и
19
тяжелом теле, при равенстве всего остального, больше материи, чем в разряженном и легком
теле. Следовательно, камень получает больший импетус, чем воздух».
Так понятие "impetus", было использовано Буриданом и его учениками для
объяснения множества феноменов, от кузнечной наковальни и маятников до небесных тел,
движение которых стало пониматься наподобие скачущих мячей.
Однако, следует отметить, что между теорией импетуса и классической механикой
нет непосредственной теоретической преемственности. Эта теория – ответвление в рамках
аристотелианской парадигмы. Однако эта теория внесла существенную дисгармонию в
основные принципы аристотелевской физики и послужила формированию новог
интеллектуального фона. Теория импетуса вводит в научное сознание последующей эпохи
как новый взгляд на движение, который резюмируется в образе тела, неотъемлемой
характеристикой которого является движение.
Эта смена перспективы оказала влияние на Галилея, что и позволило ему
сформулировать новые законы, начиная с закона падающих тел. По мнению современного
эпистемолога и историка науки Томаса Куна, "гениальность Галилея заключалась в его
умении использовать смещения внутри средневековой парадигмы". Схематично это можно
увидеть на формулировке закона тяготения. По Аристотелю, тело, когда оно падает,
стремится к своему "природному месту" (для всех тяжелых тел это центр земли) со
скоростью, прямо пропорциональной собственному весу и обратно пропорциональной
сопротивлению пересекаемой среды. Эта скорость остается постоянной на протяжении
периода падения, пока не вторгается сила или сопротивление другого рода. С точки зрения
средневековых физиков, падающее тело сначала двигается под действием силы тяжести, но
затем действует сила, связанная с изначально принятой скоростью, которая увеличивается.
Это ускорение, в свою очередь, сообщает новый импульс, который, складываясь с
предыдущим, еще более ускоряет движение и так далее. Теория силы (impetus) давала
возможность корректно описать движение падающих тел в последовательности
галилеевского закона, согласно которому скорость падения соотнесена с квадратом времени,
даже если в основе был ошибочный тезис о пропорциональности скорости пройденному
расстоянию, а не времени, необходимому для достижения земли.
Научным вкладом в средневековую физику стала теорема Томаса Брадвардина
относительно силы и сопротивления и закон Мертона (из Оксфорда), устанавливающие
точный критерий измерения ускоренного движения. Средневековые спекуляции, лишь
изредка основанные на эмпирических данных, принимали во внимание, пусть чисто
гипотетически, возможность вращения земли. Исследование этой проблемы Жаном
Буриданом и его учеником Николаем Оремом показывало, что вращение земли не
противоречит принятым астрономическим и астрологическим представлениям.
Модификация состояла в том, чтобы представить землю подвижной, а небеса покоящимися,
в относительности их движения. Коль скоро была установлена эквивалентность
эмпирических теорий (аристотелевско-птоломеевской о покоящейся земле и подвижных
небесах и позднесредневековой о подвижной земле и покоящемся небе), то дело помог
решить знаменитый принцип экономии мышления, согласно которому из двух равных
теорий предпочтительнее та, что проще с объяснительной точки зрения. Так "бритва
Оккама" разрешила спор в пользу новой физической теории.
Трактовка движения в Мертон-колледже
Принципиально новым моментом становится допущение возможности изменения
признаков при отсутствии материальной субстанции, так сказать «движения без субстрата».
Такой взгляд обязан своим происхождением попыткам рационального осмысления
некоторых моментов вероучения: таинства евхаристии и учения о благодати.
Так, Фома Аквинский предполагал, что функцию субстанции хлеба и вина после их
пресуществления выполняет их количество. Качества могут быть приписаны количеству как
субъекту. Это значит, что для объяснения изменений нужен не субстрат как вещественное
20
начало, а принцип непрерывного ряда. Принцип непрерывного ряда был включен в само
качество. Наиболее последовательным примером такого подхода служит теория
последовательности форм, выдвинутая Годфри Фонтенским (ум. 1303) и развитая Уолтером
Бурлеем (ум. 1343). Существует не одна акциденция, а непрерывная цепь различных
акциденций одного и того же вида, следующих одна за другой без перерыва. Здесь качество
определяется своим местоположением в ряду других качеств. Качественные изменения в
этом случае могут быть объяснены как последовательное принятие субъектом качественных
состояний из этого ряда. Поскольку главной характеристикой качества уже не является его
отнесенность к субъекту, то субъект вообще может быть устранен.
Так в научное сознание средневековья входит новая фундаментальная идея, которая
будет по-настоящему понята только в Новое время. В этой интуиции последовательности
был заложен альтернативный по отношению к аристотелевской системе подход к
построению картины мира, ибо он разрушал базисное для Аристотеля понятие формы.
Форма для Аристотеля неотделима от вещи и вводится для того, чтобы описать неизменные
характеристики вещи. Здесь же речь идет о ряде форм, не привязанных к субстанции и
вводимых для объяснения процесса изменения. Происходит переосмысление, причем
радикальное, самого понятия формы.
В рамках учения о ряде форм развивается теория интенсии (усиления) и ремиссии
(ослабления) качеств. Эта теория, давшая гораздо более продуктивную концепцию
кинематики, чем оккамисты, развивалась в Мертон-колледже. Ее разрабатывали: Уильям
Хейтсбери, Ричард Суайнсхед, Джон Дамблтон. Эта теория развивалась на перефирии
средневековой науки, и поэтому у ее апологетов не было нужды слишком придирчиво
сверять себя с канонами аристотелизма. Однако именно здесь начинает разрабатываться
математический аппарат, специально предназначенный для описания движения.
Суайнсхед исходил из представления о непрерывности качественного изменения и
любого движения. (Но на математическом уровне это требовало обращения к бесконечным
последовательностям (бесконечное приближение). А с бесконечными последовательностями
мертонцы работать еще не умели. )
Аристотель решал проблему непрерывности при помощи понятия континуума. Но это
помогало лишь избежать представлений о «мгновенном изменении», скачке.
Аристотелевский подход был неконструктивен в отношении формирования языка,
описывающего движение. Мертонцы заложили основы такого языка: они стали производить
действия не с непрерывностью как таковой, а
с бесконечными дискретными
последовательностями, каждая из которых выделяет в континууме дискретное
упорядоченное множество частей. Таким образом представленная непрерывность
поддавалась обсчитыванию (хотя бы гипотетически). То есть была уже математической
непрерывностью.
В работах мертонцев происходи переосмысление понятия величины. В античной
математике господствовали геометрические интуиции, поэтому величины представлялись в
виду отрезков различной длинны. (Связь с аристотелевским определением движения: оно
как и отрезок задавалось путем определения двух точек, поэтому мыслилось всегда целиком,
как законченное). Мертонцы же перешли от оперирования с актуально анными
количествами к величинам, рассматриваемым в процессе их последовательного порождения.
Наука оккамистов
Следствием глубоких изменений, произведенных философией науки Оккама, стала
новая концепция научного знания, позитивно повлиявшая на галилеевскую революцию.
Сначала в Оксфорде, потом в Париже и во всей Европе аристотелевские начала были
подвергнуты самой суровой критике и поставлены под перекрестный огонь. Что же касается
метода, то последователи Оккама противопоставили понятию "эпистемэ" Аристотеля,
знанию необходимому и универсальному, науку об особенном и пробабилизм как ее метод.
21
Оккам окончательно размежевал бытийные и концептуальные структуры, что
положило конец средневековой науке, которая была основана на идее изначальной гармонии
слова и бытия. Бытие оказалось вынесенным за рамки концептуальных построений, и
отныне только опыт мог удостоверить в бытии. Оккам отрицал существование универсалий
даже в Боге. Могут быть лишь идеи индивидуальных вещей, предстающие как объекты
интеллектуальной интуиции Бога. Человек же наделен способностью к чувственной
интуиции, в которой также схватывается лишь индивидуальное. Впервые объектом познания
становится некое единичное «это», фактически референт остенсивного, указательного жеста.
Но интуитивное познание, если его объектами являются изолированные индивиды и их
свойства, имеет дело только со случайными истинами. Между такими когнитивными
образованиями нет связей, поэтому наука как система знаний также оказывается
невозможной.
Таким образом, апелляция к опыту как источнику познания играла в оккамизме
сугубо разрушительную роль. Чтобы эта роль стала позитивной и появилась
новоевропейская наука, нужно было радикальным образом изменить представление как о
предмете познания, так и о структур самого знания. Не вещь, а отношение должно было
обрести статус фундаментальной онтологической интуиции. Структура универсума в науке
Нового времени задается не понятиями, сформированными на основе принципа тождества
(форма, сущность, вещь и т.д.), а математическими схемами, описывающими различные
виды соотношений.
Наука Нового времени
Галилео Галилей
Основы классической механики заложили Галилео Галилей, Иоганн Кеплер и Исаак
Ньютон. Галилей (1564–1642), итальянский физик, механик и астроном. Он установил
законы движения свободно падающих тел, сформулировал понятие инертного движения и
принцип механической относительности. Но главная заслуга Галилея в том, что он впервые
применил в исследовании экспериментальный метод вместе с измерением изучаемых
величин и математической обработкой результатов. Такой подход принципиально отличался
от существовавшего ранее натурфилософского подхода, где для объяснения природы
привлекались априорные умозрительные схемы. Так, для Аристотеля, исходившего из
априорных установок, самым совершенным движением считалось круговое. Но Галилей
показал, что если на тело не действуют внешние силы, то оно будет двигаться не по кругу, а
равномерно по прямой или оставаться в покое. Это и есть инерционное движение. Галилей
также опроверг предположение Аристотеля о том, что путь падающего тела пропорционален
его скорости. Галилей показал, что на самом деле путь пропорционален ускорению, которое
всегда равно 9, 81 м/с2. Эти соображения он впервые высказал в работе 1590 г. «О
движении».
В 1608 до Галилея дошли вести о новых инструментах для наблюдения за
отдаленными объектами – «голландских трубах». Историки науки почти единодушно
считают, что Галилей если не изобрел, то усовершенствовал телескоп. Он изготовил трубу с
увеличением в 30 раз и в августе 1609 продемонстрировал ее сенату Венеции. С помощью
своей трубы Галилей начал наблюдение ночного неба. Он обнаружил, что поверхность Луны
очень напоминает земную – она такая же неровная и гористая; что Млечный Путь состоит из
мириадов звезд; что у Юпитера есть по крайней мере четыре спутника («луны»). Эти
спутники Галилей назвал «светилами Медичи» в честь герцога Тосканского Козимо II
Медичи. Существование спутников Юпитера констатировал и Иоганн Кеплер.
В октябре 1610 Галилей сделал новое сенсационное открытие: он наблюдал фазы
Венеры. Объяснение этому могло быть только одно: движение планеты вокруг Солнца и
изменение положения Венеры и Земли относительно Солнца.
22
А к концу 1610 Галилей сделал еще одно замечательное открытие: он усмотрел на
Солнце темные пятна. Их видели и другие наблюдатели, в частности иезуит Христофер
Шейнер, но последний считал пятна небольшими телами, обращающимися вокруг Солнца.
Заявление Галилея о том, что пятна должны находиться на самой поверхности Солнца,
противоречило представлениям Аристотеля об абсолютной нетленности и неизменности
небесных тел. Спор с Шейнером поссорил Галилея с иезуитским орденом. В ход пошли
рассуждения об отношении Библии к астрономии, споры по поводу коперниканского учения
(которое называли «пифагорейским»), выпады озлобленного духовенства против Галилея.
Вскоре Галилей вступил в еще один научный спор – о плавании тел. По предложению
герцога Тосканского он написал по этому вопросу специальный трактат – Рассуждение о
телах, пребывающих в воде (Discorso intorno alle cose, che stanno in su l'aqua, 1612). В своем
труде Галилей обосновывал закон Архимеда строго математически и доказывал
ошибочность утверждения Аристотеля о том, что погружение тел в воду зависит от их
формы. Католическая церковь, поддерживавшая учение Аристотеля, расценила печатное
выступление Галилея как выпад против церкви. Ученому припомнили и его приверженность
теории Коперника.
5 марта 1616 был опубликован декрет Священной Конгрегации по вопросам веры, в
котором учение Коперника объявлялось еретическим, а его сочинение О вращении небесных
сфер вносилось в «Индекс запрещенных книг». Имя Галилея не упоминалось, однако
Священная Конгрегация поручила Беллармину «увещевать» Галилея и внушить ему
необходимость отказаться от взгляда на теорию Коперника как на реальную модель, а не как
на удобную математическую абстракцию. Галилей вынужден был подчиниться. В 1632
после долгих мытарств был опубликован труд Галилея Диалоги о двух важнейших системах
мира – Птолемеевой и Коперниковой (Dialogo sopra i due massimi sistemi del mondo
ptolemaico e copernicano). Согласие на издание книги дал папа Урбан VIII (друг Галилея,
бывший кардинал Маффео Барберини, вступивший на папский престол в 1623. Свой
знаменитый труд Галилей написал в виде бесед: три персонажа обсуждают различные
доводы в пользу двух систем мироздания – геоцентрической и гелиоцентрической. Автор не
становится на сторону ни одного из собеседников, но у читателя не остается сомнений в том,
что победителем в споре является коперниканец.
Галилей по требованию инквизиции прибыл в феврале 1633 в Рим, где против него
начался процесс. Его признали виновным в нарушении церковных запретов и приговорили к
пожизненному тюремному заключению. 22 июня 1633 он был вынужден, стоя на коленях,
публично отречься от учения Коперника. Ему было предложено подписать акт о своем
согласии впредь никогда не утверждать ничего, что могло бы вызвать подозрения в ереси. С
учетом этих выражений покорности и раскаяния трибунал заменил тюремное заключение
домашним арестом, и Галилей 9 лет оставался «узником инквизиции». В 1641 здоровье
Галилея резко ухудшилось, он умер в Арчетри 8 января 1642.
Иоганн Кеплер
Иоганн Кеплер (1571–1630), немецкий астроном. В 1596 вышло в свет его первое
сочинение Тайна Вселенной (Prodromus dissertationum mathematicarum continens mysterium
cosmographicum, 1596), в котором Кеплер попытался найти соотношения между элементами
планетных орбит. Это сочинение привлекло внимание Тихо Браге, который пригласил
Кеплера в качестве помощника для обработки результатов наблюдений за планетами.
Сотрудничество астрономов продолжалось около двух лет, вплоть до смерти Тихо Браге 24
октября 1601. Еще при жизни Тихо Браге Кеплер предпринимал попытки математического
описания закономерностей движения планеты Марс. В результате долгих размышлений
Кеплер пришел к эмпирическим законам движения планет (законы Кеплера). Эти результаты
были опубликованы в книге Новая астрономия, завершенной в 1607 году и опубликованной
в 1609.
В этой работе Кеплер привел два из своих знаменитых трех законов движения планет.
23
1.
Каждая планета движется по эллипсу, в одном из фокусов которого находится
Солнце.
2.
Каждая планета движется в плоскости, проходящей через центр Солнца,
причем, линия соединяющая Солнце с планетой (радиус-вектор планеты), за ее равные
промежутки времени описывает равные площади.
В 1618 г. Кеплер обнародовал свой третий закон планетных движений.
3.
Квадраты периодов обращения планет вокруг Солнца соотносятся как кубы
больших полуосей их орбит.
Но Кеплер не смог объяснить причины планетных движений: он считал, что их
«толкает» Солнце, испуская при своем вращении особые частицы (species immateriata), при
этом эксцентричность орбиты определяется магнитным взаимодействием Солнца и
планеты.
Кеплеровский закон площадей - это первое математическое описание
планетарных движений, исключившее принцип равномерного движения по окружности как
первооснову. Более того, он впервые выразил связь между мгновенными значениями
непрерывно изменяющихся величин (угловой скорости планеты относительно Солнца и ее
расстояния до него).
Этот «мгновенный» метод описания, который Кеплер впоследствии вполне
осознано использовал при анализе движения Марса, стал одним из выдающихся
принципиальных достижений науки XVII в. - методом дифференциального исчисления,
оформленного Лейбницем и Ньютоном.
Исаак Ньютон
Галилей умер 8 января 1642 г. В том же 1642 г. на Рождество, в Вулсторпе, в
окрестностях деревни Колстерворт, Линкольншир, родился Исаак Ньютон. Ньютон
завершил научную революцию, и с его системой мира обретает лицо классическая физика.
В 1661 г. он поступил в колледж Св. Троицы в Кембридже, где нашел поддержку у
преподавателя математики Исаака Барроу (1630-1677). Барроу оценил выдающиеся
способности своего ученика, который очень быстро овладел всеми основными
математическими знаниями.
В 1665 г. на два года из-за чумы Ньютон, как и многие другие преподаватели и
студенты, вынужденно покидает Кембридж. Он вернулся в Вулсторп и занимался
математикой и философией. Это было весьма плодотворное время. Именно в Вулсторпе
Ньютону впервые пришла в голову идея всемирного тяготения. Известен рассказ внучки
Ньютона Вольтеру (разболтавшему его всему свету), что эта идея пришла к Ньютону, когда
ему на голову упало яблоко с дерева, под которым он отдыхал. Ньютон сконструировал
телескоп-рефлектор, который был лишен недостатков Галилеева телескопа.
В 1669 г. Барроу перешел на кафедру теологии и передал кафедру математики
молодому Ньютону. Ньютон завершил свои опыты по разложению белого цвета с помощью
призмы. Он представил соответствующий доклад в 1672 г. в Королевское общество; этот
доклад был опубликован под названием «Новая теория света и цветов». Это принесло ему
членство в Королевском обществе. В этой работе Ньютон формулирует теорию
корпускулярной природы света, согласно которой световые явления находили объяснение в
эмиссии частиц разной величины: самые маленькие из этих частиц давали фиолетовый цвет,
а самые большие - красный. Корпускулярная теория света вступала в состязание с волновой
теорией, выдвинутой голландским физиком, последователем Декарта Христианом
Гюйгенсом (1629-1695).
В 1671 г. французский ученый Жан Пикар (1620-1682) выработал наилучший способ
обмера Земли; в 1679 г. Ньютон познакомился с техникой расчета диаметра Земли Пикара и
возобновил работу над своими заметками о гравитации; вновь выполнил расчеты (которые в
Вулсторпе не удавались), и на этот раз благодаря новой технике Пикара расчеты
получились, так что идея гравитации стала, таким образом, научной теорией.
24
В начале 1684 г. известный астроном Эдмунд Галлей (1656-1742) встретился с сэром
Кристофером Реном (1632-1723) и Робертом Гуком (1635-1703) с тем, чтобы обсудить
проблему движения планет. Гук утверждал, что законы движений небесных тел следуют
закону силы, обратно пропорциональной квадрату расстояния. Рен дал Гуку два месяца на
формулировку доказательства закона. Но Гук пренебрег этим поручением.
В августе Галлей отправился в Кембридж, чтобы узнать мнение Ньютона. На вопрос
Галлея, какой должна быть орбита планеты, притягиваемой Солнцем с гравитационной
силой, обратно пропорциональной квадрату расстояния, Ньютон ответил: «Эллипс».
Обрадованный Галлей спросил у Ньютона, как ему удалось это узнать. Ньютон отвечал:
после соответствующих расчетов. Тогда Галлей попросил показать ему эти расчеты, но
Ньютон не смог найти их и пообещал прислать позже, что и сделал. Кроме того, он написал
работу «О движении тел», которую послал Галлею. Последний сразу понял важность работы
Ньютона и убедил его написать и обнародовать трактат. Так появился самый большой
шедевр в истории науки «Математические начала натуральной философии».
Ньютон принялся за работу в 1685 г. В апреле 1686 г. он направил рукопись первой
части в Королевское общество, в протоколах которого находим следующую запись,
датированную 28 апреля: «Доктор Винсент представил Обществу трактат под названием
"Математические начала натуральной философии", который господин Исаак Ньютон
посвящает Обществу и в котором предлагается математическое доказательство гипотезы
Коперника в изложении Кеплера, с объяснением всех феноменов небесных тел с помощью
единой гипотезы гравитации к центру Солнца, сила которой уменьшается обратно
пропорционально квадрату расстояния от центра». Сам Галлей взялся за издание работы. Но
тут возник спор с Гуком, который отстаивал свой приоритет в открытии закона силы,
обратно пропорциональной квадрату расстояния. Ньютон оскорбился; он грозил, что не
отдаст в печать третью часть работы, в которой говорится о системе мира. Затем спор улегся,
и Ньютон вставил в работу примечание, в котором указал, что закон обратной пропорции
был уже ранее предложен Реном, Гуком и Галлеем. «Начала...» появились в 1687 г.
Ньютон завязал дружбу с Джоном Локком и продолжал исследования бесконечно
малых величин, а также заинтересовался химией. Но в 1692 г. пожар уничтожил его
лабораторию, у Ньютона начался тяжелый кризис, граничивший с безумием. С этого
момента история Ньютона-ученого практически заканчивается. Ньютон умер 20 марта 1727
г. Погребен Ньютон в Вестминстерском аббатстве. На его похоронах присутствовал
Вольтер, способствовавший распространению идей Ньютона во Франции.
Законы движения классической механики
Вот три ньютоновских закона движения, которые представляют собой классическое
выражение основ динамики.
Первый - закон инерции, над которым работали Галилей и Декарт. Ньютон пишет:
«Всякое тело пребывает в состоянии покоя или равномерного прямолинейного движения до
тех пор, пока действующие на него силы не изменят это состояние». Ньютон иллюстрирует
этот фундаментальный принцип следующим образом: «Пуля летит, пока ее не остановит
сопротивление воздуха или пока не упадет под действием силы тяготения. Юла... не
прекратит своего вращения, пока ее не остановит сопротивление воздуха. Более крупные
тела планет и комет, находясь в пространствах более свободных и с меньшим
сопротивлением, сохраняют свои движения вперед и одновременно по кругу на гораздо
более продолжительное время».
Второй закон, сформулированный уже Галилеем, гласит: «Произведение массы тела на
его ускорение равно действующей силе, а направление ускорения совпадает с направлением
силы». Формулируя закон, Ньютон рассуждает: «Если определенная сила порождает
движение, сила, в два раза большая, породит в два раза большее движение, сила,
умноженная втрое, - утроенное движение, и неважно, приложена эта сила вся сразу, одним
ударом, или постепенно и последовательно. И это движение, если тело уже двигалось,
25
прибавляется к нему, или вычитается, если эти движения противоположны друг другу; или
же добавляется косвенно, если движения не расположены на одной прямой, так что
рождается новое движение, направление которого определяется направлением двух
исходных движений». Эти два закона, в совокупности с третьим и составляют основу
классической механики, изучаемой в школе.
Третий закон, сформулированный Ньютоном, утверждает, что «действию всегда
соответствует равное противодействие», или: действия двух тел друг на друга всегда равны
по величине и направлены в противоположные стороны. Этот принцип равенства между
действием и противодействием Ньютон иллюстрирует так: «Любая вещь, которая давит на
другую вещь или тянет ее, испытывает в равной мере давление или притягивание со стороны
этой другой вещи. Если надавить на камень пальцем, то и палец будет испытывать давление
камня».
Таковы законы движения. Однако состояния покоя и равномерного прямолинейного
движения могут быть определены только относительно других тел, которые находятся в
покое или в движении. Но соотносить с другими системами нельзя до бесконечности, и
Ньютон вводит два понятия (которые станут объектом дискуссий) - абсолютного времени и
абсолютного пространства. «Истинное и математически абсолютное время протекает
безотносительно к чему-либо вне его, иначе оно именуется длительностью. Относительное,
кажущееся или обыденное время есть или точная, или изменчивая, постигаемая чувствами,
внешняя, совершаемая при посредстве какого-либо движения, мера продолжительности,
употребляемая в обыденной жизни вместо истинного математического времени, как-то: час,
день, месяц, год». «Абсолютное пространство, по своей природе лишенное соотнесения с
чем-либо вне его, всегда остается подобным себе самому и неподвижным...» Впоследствии
Эрнст Мах назовет эти понятия «концептуальными чудовищами».
Внутри абсолютного пространства, которое Ньютон называет также sensorium Dei,
соединение тел осуществляется по закону всемирного тяготения, изложенному в третьей
книге «Начал...». Закон гласит,
F=g m1 m2/r2,
где F – сила тяготения; m1 и m2 – тяготеющие массы; r – расстояние между ними;
g – постоянная тяготения.
Но как Ньютон пришел к идее всемирного тяготения? Историки науки обнаружили, что
он, оказывается, немало времени посвящал занятием алхимией и в ходе этих занятий пришел
к выводу, что существует некая сила химического сродства между веществами. После этого
Ньютон обратился к астрономии и исследовал взаимодействие тел на макроуровне. И тут
открыл универсальный закон гравитации, не имеющий прямого отношения к силе сродства
химических веществ, но в то же время выступающий как фундаментальное свойство для
всех тел, обладающих массой.
В отличие от своего современника Декарта, не признававшего пустоты, Ньютон считал,
что силу притяжения действуют без какой-либо промежуточной среды, в пустоте и
мгновенно. Однако, как следует из закона, эта сила убывает с квадратом расстояния между
ними. Вопрос о том, какова же природа этих сил, Ньютон оставил решать следующим
поколениям.
С помощью закона всемирного тяготения Ньютон приходит к единому принципу
объяснения бесконечного множества явлений. Сила, притягивающая к земле камень или
яблоко, имеет ту же природу, что и сила, удерживающая Луну близ Земли, а Землю - близ
Солнца; присутствием той же силы объясняются приливы - как комбинированный эффект
притяжения Солнца и Луны, воздействующий на массу морской воды.
Физика Ньютона исследует не сущности, а функции; она не доискивается до сути
тяготения, но довольствуется тем, что оно есть на самом деле и что им объясняются
движения небесных тел и земных морей. Механика Ньютона стала одной из наиболее
мощных и плодотворных исследовательских программ в истории науки: после Ньютона для
научного сообщества «все явления физического порядка должны были быть соотносимы с
26
массами по законам движения Ньютона». Реализация программы Ньютона продолжалась
довольно долго, пока не натолкнулась на проблемы, для разрешения которых потребовалась
новая научная революция.
Принципы классической механики
Принцип обратимости (или симметрии) времени. Все состояния механического
движения тел по отношению ко времени оказываются в принципе одинаковыми, поскольку
время считается обратимым. Поскольку при заданных начальных условиях состояние
движения механической системы будет зависеть только от этих условий, то в уравнениях
движения классической механики знак времени можно менять на обратный. Это значит, что
само направление времени в физике не учитывается. Разумеется, здесь мы имеем дело с
идеализацией и абстрагированием от реальных процессов, происходящих с телами с
течением времени.
Этот принцип впервые был поставлен под сомнение после того, как физики стали
изучать тепловые процессы в термодинамике. Но эта проблема не вышла на первый план,
так что и теория относительности, и квантовая механика используют идеализацию
обратимого времени. И только в новейших исследованиях по неравновесной термодинамике,
особенно по синергетике, такие представления стали подвергаться серьезной критике.
Разумеется, этот физический принцип обратимости времени совершенно неприемлем в
области исследования социальных и биологических процессов.
Принцип механического детерминизма. Все механические процессы подчиняются
принципу строгого или жесткого детерминизма, суть которого состоит в признании
возможности точного и однозначного определения состояния механической системы через
ее предыдущее состояние.
Таким образом, мы оказываемся в мире, где все предопределено предыдущими
событиями. Мир превращается в грандиозную машину. Наиболее ясно и обстоятельно эту
точку зрения выразил французский ученый 18 века П. Лаплас (1749 - 1827). Таким образом,
из механистической картины мира исключается случайность. По Лапласу, случайными мы
называем те явления, причины которых нам пока неизвестны.
Однако всегда были области, где изучаемые процессы оказывались столь сложны и
запутаны, что со случайностью приходилось мириться. Это социальные и экономические
науки. Здесь были разработаны и особые методы, которые получили название
статистических и вероятностных. В области демографии они использовались с 18 века, а в
естествознании стали применяться лишь в середине 19.
В связи с различие методов предсказания явлений стали выделять универсальные
законы, которые назвали детерминистическими (вроде законов Ньютона), и законы,
учитывающие случайность, которые получили название стохастических (от латинского
stochastic - случайный).
Принцип отрыва материи от форм ее существования. В механике Ньютона
пространство и время совершенно не связаны с движущейся материей, хотя и признается,
что материя движется в пространстве и времени. Именно поэтому они имеют абсолютный
характер.
Принцип дальнодействия. Согласно этому принципу, гравитационные силы могут
передаваться в пустом пространстве с какой угодно скоростью. Таким образом,
классическая ньютоновская теория гравитации отрицает существование определенной
среды, или гравитационного поля, служащего для передачи гравитационных сил от одной
точки к другой. Те, кто признает наличие среды или поля, придерживаются обратного
принципа – принципа близкодействия. На принципе близкодействия основана общая
теория относительности, которая вместо пустого пространства вводит поля тяготения.
Принцип дальнодействия впервые был подвергнут сомнению после открытия
электромагнитного поля. О существовании гравитационного поля, действующего по
принципу близкодействия, говорят по аналогии с электромагнитным. Но тогда должны быть
27
и специфические частицы этого поля – гравитоны. Однако их существование остается
недоказанным.
Термодинамика
Термодинамическая и электромагнитная картина мира стали важным дополнением
механицистской картины, когда обнаружилось, что одна классическая механика не в
состоянии удовлетворительно объяснить ряд физических явлений. Например, таких как
теплота или электричество, то есть явлений немеханической природы. Для их объяснения
приходилось выдумывать различные «невесомые субстанции», подобные жидкостям.
В 18 веке английский естествоиспытатель Джозеф Блэк четко разграничил понятия
тепла и температуры: температура разных веществ увеличивается в разной степени при
получении одного и того же количества тепла. Так, для того, чтобы поднять температуру
грамма железа на 1 градус Цельсия требуется в три раза больше тепла, чем для той же
операции со свинцом. Блэк также показал, что тепло может переходить к телу и без
повышения температуры. Например, лед тает под действием тепла, но его температура
остается 0 градусов Цельсия. То же самое происходит и при кипении воды: тепло вызывает
образование пара, но температура воды не повышается (100 г.Ц.).
Для того чтобы непротиворечиво объяснить явление теплоты в терминах классической
механики, была выдумана специальная материальная субстанция – «теплород». Закипание
воды в чайнике над костром описывалось так: при сгорании деревянного полена теплород
переходил из дерева в пламя костра, а потом и в чайник. Вода насыщалась теплородом и
начинала кипеть с выделением пара.
Однако в конце 18 века эта теплородная теория была поставлена под сомнение.
Наблюдения показывали, что тепло как-то связано с вибрацией. Так, американский физик и
авантюрист Б. Томпсон заметил, что когда высверливают отверстие в стволе
артиллерийского орудия, то выделяется много тепла. Но откуда здесь теплород? И Томпсон
решил, что дело вовсе не в нем, а в интенсивности колебаний, вызванных сверлением.
Английский химик Х. Дэви поставил другой важный опыт: при помощи механического
приспособления он плотно сжал и потер друг о друга два куска льда. Теплороду здесь точно
взяться было неоткуда, а лед расплавился. Но, хотя выводы опытов были очевидны, теория
теплорода дожила до середины 19 века.
В первой половине 19 века были заложены основы другого подхода к истолкованию
природы тепла – термодинамики (от гр. «тепло + движение»). Основателем этого подхода
стоит считать француза Никола Карно (1796 - 1832). Согласно термодинамике, нагревание
тел объясняется увеличением их внутренней энергии.
Надо отметить, что попытки объяснить тепло внутренним движением частицкорпускул предпринимались и ранее. Но в те времена было мало что известно о внутреннем
строении вещества и о строении самих частиц, поэтому явно ошибочная теория теплорода
выглядела привлекательнее.
Исследования природы тепла были инициированы во многом изобретением парового
двигателя (Кстати, изобретатель парового двигателя Джеймс Ватт был студентом у Джозефа
Блэка). Поэтому Карно, как и другой более известный ученый, англичанин Джоуль, ставили
перед собой весьма практические вопросы: Все ли тепло, переведенное в форму пара, можно
использовать на механическое перемещение поршня? Имеются ли ограничения в конверсии
тепла в механическую работу? Каков обратный процесс, то есть переход работы в тепло?
Джоуль пришел к выводу, что определенное количество работы любого вида всегда
производит строго определенное количество тепла, то есть Джоуль установил механический
эквивалент тепла. Джоуль также сделал предположение, что подобные эквивалентные
отношения должны существовать и при превращении других форм энергии в теплоту.
Вскоре были открыто явление превращения энергии химических реакций в электричество, а
потом и электромагнитной энергии в тепловую. И всегда одна форма энергии переходила в
тепловую энергию в строго определенных количествах. Но если тепло можно превратить в
28
работу, то его следует рассматривать как форму энергии (по гр. энергия – «производящая
работу»). Электричество, магнетизм, свет и движение также можно использовать для
выполнения работы, поэтому все они являются видами энергии. Да и сама работа,
превращенная в тепло, является энергией.
Данные наблюдений и экспериментов были обобщены в законах классической
термодинамики.
Первый закон термодинамики гласит: Во всех тепловых превращениях энергия не
возникает из ничего и не исчезает никуда, а остается постоянной. Это подтверждает
подозрения, возникшие еще во времена Ньютона: энергия не может ни создаваться, ни
уничтожаться; она всегда сохраняется. Движущееся тело, например, подброшенный вверх
камень, обладает кинетической энергией. Когда камень замедляет свое движение вверх, его
кинетическая энергия снижается до нуля, переходя в энергию потенциальную. Кинетическая
энергия в купе с потенциальной получили название механической энергии. Ее количество в
процессе движение остается практически постоянной величиной, но абсолютного
сохранения нет, так как происходят потери за счет трения, сопротивления воздуха и пр. Мы
можем говорить о сохранении механической энергии только в том случае, если принять во
внимание, что при преодолении трения и сопротивления среды механическая энергия
превращается в тепловую. Первым закон сохранения энергии четко сформулировал Г. фон
Гельмгольц в 1847 г. Этот закон сохранения энергии, или первый закон термодинамики,
остается и по сей день фундаментом всей современной физики. Из этого закона следует
невозможность вечного двигателя, который мог бы совершать работу без внешнего
источника энергии (т.к. часть энергии превращается в тепло и этот процесс необратим).
Второй закон термодинамики гласит: Невозможно получить работу за счет энергии
тел, находящихся в термодинамическом равновесии. Этот закон можно сформулировать и
проще, как это сделал Никола Карно: нельзя осуществить процесс, единственным
результатом которого было бы превращение тепла в работу при постоянной
температуре. Физический смысл этого закона состоит в том, что тепловая энергия может
превращаться в любой другой вид энергии лишь частично. В результате любой физический
процесс, в котором происходит превращение какого-нибудь вида энергии в теплоту,
является необратимым процессом, то есть он не может быть полностью повторен в обратном
направлении. Но почему так получается?
Когда работа совершается за счет тепла, часть его теряется в пространстве. В любом
процессе превращения энергии часть ее покидает систему. Способность любой системы
выполнять работу характеризуется ее свободной энергией. А та часть энергии, которая
тратиться на бесполезный нагрев, получила название «энтропия». Второй закон
термодинамики, таким образом, устанавливает некоторые ограничения: невозможно
получить большее количество работы из системы, чем количество доступной свободной
энергии. Величина же свободной энергии всегда будет меньше, чем величина полной
энергии, за исключением случая, когда температура достигнет абсолютного нуля. При чем
тут абсолютный нуль?
Тепловая энергия из области высокой температуры всегда передается в направлении
области с более низкой температурой. Количество энергии, которое может быть
конвертировано в работу, определяется разностью температур. То есть, доступная энергия
может быть представлена как Т2 (горячая область) – Т1 (холодная область). Но даже холодная область
теплового двигателя содержит в себе теплоту. Полная же энергия определяется следующим
образом: Т2 – 0 (абсолютный нуль; т.е. в случае определения полной энергии мы
гипотетически охлаждаем холодную область до абсолютного нуля). Максимальная
эффективность теплового двигателя, т.е. Е, будет равна отношению доступной энергии к
полной энергии.
Е = Т2 – Т1
Т2
29
Это значит, что для извлечения теплоты и ее дальнейшей конвергенции в работу,
должна быть более холодная область. Если температура достигнет абсолютного нуля,
разница температур будет невозможной (ничего нельзя охладить ниже абсолютного нуля).
Теперь вернемся к интересному понятию «энтропия», которое выражает меру
необратимости самопроизвольного перехода энергий (термин Клаузиус придумал сам:
«тропе» по-гречески значит «превращение», а приставка «эн» понадобилась лишь для того,
чтобы придать термину сходство с названием фундаментальной физической величины –
«энергией»). В научный обиход этот термин был впервые введен немецким физиком
Рудольфом Юлиусом Эммануэлем Клаузиусом (1822 - 1888). Используя этот термин, он дал
свою формулировку второго закона термодинамики:
Энтропия замкнутой термодинамической системы, то есть системы, которая не
обменивается с окружением ни энергией, ни веществом, возрастает и достигает
максимума в точке термодинамического равновесия.
Чуть позднее австрийский физик Людвиг Больцман (1844 - 1906) стал рассматривать
тепловые процессы с точки зрения молекулярно-кинетической теории как хаотическое
движение огромного числа молекул. Поскольку с увеличением температуры эта хаотичность
возрастает, то Больцман стал трактовать энтропию как рос беспорядка и дезорганизации
системы.
Рудольф Клаузиус также предпринял попытку распространить законы классической
термодинамики на Вселенную, и выдвинул два постулата:
- Энергия Вселенной всегда постоянна.
- Энтропия Вселенной всегда возрастает.
Поскольку возрастание энтропии – процесс необратимый, мы можем говорить о
своеобразной космологической шкале времени: время во Вселенной движется в направлении
увеличения энтропии, или увеличению беспорядка, в терминах Больцмана. Получается, что
все процессы во Вселенной направлены в сторону достижения состояния
термодинамического равновесия, которое соответствует максимуму энтропии. Это значит,
что, в конце концов, во Вселенной наступит тепловая смерть. Разумеется, такие мрачные
прогнозы мало кого обрадовали. Некоторые ученые и философы стали выдвигать гипотезы о
существовании неких параллельных антиэнтропийных процессов. Другие же обратили
внимание на то, что само понятие закрытой, или изолированной, системы является
абстракцией, не отражающей реальный характер систем, которые встречаются в природе. Но
все эти попытки уберечь нашу Вселенную от мрачной перспективы тепловой смерти не
находили прочного основания вплоть до 60-х годов 20 века, пока не появилась новая
неравновесная термодинамика, которая опирается не только на понятие о необратимых
процессах, но и на возможность возникновения порядка за счет энергии и вещества из
окружающей среды. Появление новой термодинамики было обусловлено не только
недовольством пессимистической перспективой, но и тем, что классическая термодинамика
все же не давала удовлетворительного решения космологических проблем.
Новая термодинамика исходит из понятия «открытой системы». Одно из первых
определений открытой системы принадлежит австрийскому физику Эрвину Шрѐдингеру
(1887 - 1961), который сформулировал его в своей книге «Что такое жизнь с точки зрения
физика?» Открытые системы, в отличие от замкнутых, обмениваются с окружающей средой
энергией, веществом и информацией (она добавляется, если речь идет о биологических,
гуманитарных и социальных системах). Все реальные системы, с которыми мы имеем дело,
оказываются именно открытыми. В них также производится энтропия, поскольку
осуществляются необратимые процессы, но эта энтропия не накапливается, а выводится и
рассеивается в окружающей среде. Такие материальные структуры, способные рассеивать
энергию, стали называть диссипативными (диссипировать - рассеивать).
Если охарактеризовать энтропию как степень беспорядка, то можно сказать, что
открытые системы живут за счет заимствования порядка из внешней среды. Но, извлекая
порядок, открытая система вносит во внешнюю вреду беспорядок. Открытые системы
30
неравновесны, то есть взаимосвязи между элементами системы со временем разрушаются и
создаются заново.
Теория электромагнетизма
Электрические и магнитные явления были известны давно, но они изучались отдельно
друг от друга. Датский ученый Ганс Христиан Эрстед (1777 - 1851) поместив над
проводником электрического тока магнитную стрелку, обнаружил, что она отклоняется от
первоначального положения. Из этого он сделал вывод, что электрический ток создает
магнитное поле. Чуть позднее английский физик М. Фарадей (1791 - 1867), вращая
замкнутый контур в магнитном поле, открыл, что в нем возникает электрический ток. На
основе этих и других опытов Джеймс Максвелл (1831 - 1879) создал теорию
электромагнитного поля. Таким образом было доказано, что в мире существует не только
вещество, но и физические поля.
Включение поля существенно осложняло научную картину мира, поэтому долгое время
ученые пытались объяснять электромагнитные процессы при помощи механических моделей
и понятий. Так появилась теория «электрических и магнитных жидкостей».
Теория электрической жидкости базировалась на следующих положениях:
1. Электричество есть жидкая субстанция, подобная веществу.
2. В каждом незаряженном теле находится одинаковое количество положительного и
отрицательного электричества, поэтому они взаимно нейтрализуют друг друга.
3. В результате трения один вид электричества можно отделить от другого.
4. Есть два вида тел: в одних электрические жидкости могут двигаться свободно,
поэтому их называют проводниками, в других же (фарфор, стекло, резина и пр.) не
могут, поэтому их называют изоляторами.
Однако опыты показывали, что вес заряженного тела ничем не отличается от веса
электрически нейтрального тела. Чтобы увязать этот факт с теорией электрической
жидкости, последняя была объявлена невесомой. Но само существование «невесомых
субстанций» уже представляет собой отход от механистической концепции. При
дальнейшем развертывании исследований ученые натолкнулись на еще большие трудности,
что привело к ее замене теорией электромагнитного поля.
Опыты Эстерда и Фарадея показали, что электрические и магнитные поля не являются
изолированными объектами. Там, где есть электричество, возникает магнитное поле и
наоборот. Примечательно, что Фарадей, открывший явление электромагнитной индукции,
был самоучкой. Он работал переплетчиком в типографии и физику изучил собственными
усилиями. Фарадей был верующим человеком и считал, что «природа едина от Бога».
Поэтому-то он и был убежден во взаимосвязи электрических и магнитных сил. В те времена
на университетских кафедрах господствовала ньютоновская идея дальнодействия, но на
сознание Фарадея она не оказала сильного влияния как раз в силу дилетантского
образования последнего. Новаторское мышление Фарадея позволило выйти за рамки
Ньютоновской механики и предвосхитило идейные сдвиги в физической картине природы.
Если теория дальнодействия сыграла положительную роль при формировании закона
всемирного тяготения, то в 19 веке в физике стала все более востребованной декартовская
идея близкодействия.
Если Фарадей предоставил эмпирический материал для теории электромагнитного
поля, то Максвелл переводит ее на язык математики. Уравнения Максвелла предсказывали
возможность волнообразных возмущений электромагнитного поля. Понятие «поля», как и
принцип близкодействия Максвелл берет из фарадеевского наследия. Эти две идеи тесно
связаны, так как для близкодействия необходима сплошная среда. Но тут возникла
проблема: как понимать поле? У Фарадея на этот счет нет конкретных указаний. Максвелл
закрепил в качестве среды эфир – «пятый элемент», выдуманный в свое время Платоном.
Эфир как бы заполняет все пространство и пронизывает все тела. Позже «эфир» был
устранен, так его существование экспериментально не подтвердилось. Более того, концепция
31
эфира стала самопротиворечивой. С одной стороны, эфир должен быть очень разряженной
средой, чтобы пронизывать все и чтобы планеты двигались сквозь него без трения. С другой
стороны, скорость распространения электромагнитных волн чрезвычайно велика, что
свидетельствовало о твердости эфира – чем тверже, плотнее тело, тем быстрее движутся в
нем волны.
Но концепция эфира имела и свои положительные стороны. Эфир стал своеобразным
«мировым пространством», абсолютной системой координат. Кроме того, она объясняла
волновой характер электромагнитных явлений. Ученые того времени считали, что подобно
морским волнам, требующим воды, или звуковым колебаниям, требующим воздуха, волнам
э/м энергии тоже нужна особая среда. Но раз это волны, то они должны распространяться с
постоянной скоростью, как рябь на воде. Максвелл вычислил эту скорость – и она оказалась
равна 300 000 км / с.
Теперь стоит немного отвлечься и совершить небольшой экскурс в теорию света.
С давних пор конкурировали две гипотезы света – корпускулярная и волновая, но
долгое время ни та, ни другая не были удовлетворительными. Ньютон придерживался
корпускулярной теории. Сторонником волновой теории света в 17 веке был нидерландский
ученый Христиан Гюйгенс (1629 - 1695), но авторитет Ньютона был весьма высок. Однако в
начале 19 века Е. Юнг и О. Френель предоставили весьма убедительные аргументы в пользу
волновой гипотезы. Впоследствии измерения установили, что скорость света конечна и
равна 300 000 км/с. В действительности тот факт, что свет распространяется с некоторой
конечной скоростью был выявлен еще в 17 веке, за 11 лет до публикации «Начал» Ньютона,
датским астрономом Оле Христиансеном Рѐмером. Но он ошибся, высчитывая его скорость.
Итак, Максвелл доказал, что скорость электромагнитных волн та же, что и у световых.
Совпадение скоростей подсказали Максвеллу, что речь идет о явлениях одного порядка, то
есть свет можно также отнести к электромагнитным процессам. Сегодня известно, что
человеческий глаз воспринимает как видимый свет волны длинной от 40 до 80 миллионных
долей сантиметра (длинной волны называют расстояние между двумя ее гребнями или
впадинами). Волны, длина которых короче, называют ультрафиолетовым, рентгеновским и
гамма-излучением. Волны, длина которых превышает указанные параметры, - это
радиоволны, микроволны и инфракрасное излучение.
Волновая
природа
электромагнитных
процессов
получила
эмпирическое
подтверждение в 1887 голу, когда немецкий физик Генрих Герц создал генератор
электромагнитных волн и осуществил их прием.
Вытекающие из теории Максвелла положения о том, что радио- и световые волны
должны распространяться с постоянной скоростью, было трудно согласовать с механикой
Ньютона. Ведь если отсутствует абсолютный стандарт покоя, мы не можем заключать
универсального соглашения о скорости объекта (игра в пинг-понг в движущемся поезде (90
км/ч): какова скорость шарика – 10 или 100 км/ч?). Одному и тому же объекту можно
приписывать любую скорость, в зависимости от системы отсчета. Согласно Ньютону, то же
самое должно относиться и к свету. Концепция эфира позволяла кое-как примирить теорию
Максвелла с законами Ньютона: эфир заменял «мировое пространство» и скорость света
должна измеряться относительно эфира, только в этом случае она могла быть постоянной.
В 1887 году два американских ученых – Альберт Майкельсон и Эдвард Морли решили экспериментально проверить гипотезу эфира. Результат оказался плачевный:
никакого эфира как абсолютного пространства обнаружено не было. Между 1887 и 1905
годами было предпринято несколько попыток спасти концепцию эфира, пока никому доселе
неизвестный сотрудник швейцарского патентного бюро Альберт Эйнштейн (1879 - 1955) не
показал, что можно прекрасно обойтись и без этой таинственной субстанции, если только
отказаться от идеи абсолютного времени.
32
Теория относительности А. Эйнштейна
Nature, and Nature’s laws, lay hid in night:
God said, Let Newton be! and all was light.
(Alexander Pope)
It did not last: the Devil, howling Ho!
Let Einstein be! restored the status quo.
(sir John Collings Squire)
(Был этот мир глубокой тьмой окутан.
Да будет свет! И вот явился Ньютон.
Но сатана недолго ждал реванша.
Пришел Эйнштейн – и стало все как раньше.
Пер. С.Я. Маршака)
В действительности речь идет о двух теориях относительности, последовательно
сформулированных Эйнштейном: Специальной теории относительности (СТО) и Общей
теории относительности (ОТО).
Специальная теория относительности
СТО, идеи которой Эйнштейн выдвинул в 1905 году, позволяла объяснить постоянную
скорость света, не прибегая к сомнительной «концепции эфира». Как уже говорилось, в
электродинамике эфир приобрел взаимоисключающие свойства: поскольку он заполняет все
пространство, он должен быть очень разряженным, но в то же время эфир должен быть
очень плотным, чтобы объяснить быструю скорость распространения электромагнитных
волн.
Следуя уроку Эрнста Маха о необходимости изгнания из физики абсолютов,
пришедших туда извне, Эйнштейн показал, что надобность в эфире отпадает, если мы
откажемся от «абсолютов» Ньютона: абсолютного пространства и, главное, абсолютного
времени. Несколько неделей спустя ту же идею высказал ведущий французский математик
Анри Пуанкаре, но она, разумеется, была изложена в математическом ключе. Так что
аргументы Эйнштейна оказались более близкими физикам.
Еще в 18 веке было обнаружено, что свет движется с постоянной скоростью. Но
возникал вполне законный вопрос: относительно чего эта скорость? Концепция эфира
давала ответ, но из нее вытекало, что при определенных обстоятельствах измеряемая
скорость света будет другой. Если наблюдатель неподвижен относительно эфира, то он
зафиксирует скорость равную 300 000 км/с., но если наблюдатель движется в эфире, то он
должен фиксировать большую или меньшую скорость.
Например, некто не очень хороший швыряет в вас ручной гранатой, и она летит со
скоростью 6 м/с. Вы, разумеется, пытаетесь убежать, стартуя со скоростью 3,6 м/с.
Злополучная граната все же будет к вам приближаться, но с меньшей скоростью, чем
рассчитывал ваш неприятель, а именно: 6 м/с – 3,6 м/с = 2,4 м/с. Теперь предположим, что
ваш неприятель неплохо вооружен, и вместо гранаты вытаскивает мощный лазер. Он
стреляет, и луч лазера несется на вас со скоростью 300 000 км/с. Эйнштейн предложил
описывать свет как поток микроскопических частиц, которые химик Гильберт Льюис
окрестил фотонами. Вы, разумеется, не в восторге от предстоящей встречи с этими
фотонами и пытаетесь удрать. И у вас есть звездный корабль вроде «Энтерпрайза», на
котором вы улетаете от пучка фотонов со скоростью 50 000 км/с. Интуиция вам
подсказывает, что вас все равно поджарят, но не так скоро, ибо теперь фотоны догоняют вас
со скоростью всего 250 000 км/с. Но тут ваша интуиция, увы, не права: большое количество
различных экспериментов, проведенных еще в конце 19 века, доказывают, что если вы
33
умудритесь в этой ситуации измерить скорость преследующего вас луча, то получите все те
же злополучные 300 000 км/с. Можно даже двигаться навстречу фотонам, или преследовать
удаляющиеся, но все равно результат будет неизменным.
Получается, что куда бы и с какой скоростью ни двигались наблюдатели, они должны
будут замерять одну и ту же скорость света! Это невозможно, если представления Ньютона
(да и наши обыденные представления) о пространстве и времени как универсальных
величинах верны. Идею постоянства скорости света действительно трудно усвоить, и в
начале 20 века физики потратили немало усилий, чтобы ее опровергнуть, но с нулевым
результатом.
Фундаментальный постулат Эйнштейна, именуемый (почему-то) принципом
относительности, гласит, что все законы физики должны быть одинаковы для всех
свободно движущихся наблюдателей независимо от их скорости. Скорость света – это
расстояние, которое проходит электромагнитный импульс между двумя событиями,
деленное на временной интервал между этими событиями. Событие – это нечто, имеющее
место в определенной точке пространства в определенное время. И единственный способ
сойтись в оценке скорости света – это разойтись в оценке времени. Все мыслимые
наблюдатели, с какой бы скорость они не двигались, могут замерять одну и ту же скорость
света, только если предположить, что каждый из них движется в своем индивидуальном
времени, замеряемом своими часами. Разница в таких индивидуальных замерах будет
увеличиваться с возрастанием разницы скоростей наблюдателей. Такой эффект
действительно был замечен путем сравнения часов, оставленных на земле и помещенных в
авиалайнер. Но при обычных для нас скоростях передвижения, в том числе и на самолете,
эта разница во времени столь мала, что ею можно спокойно пренебречь. Она становится
существенной при околосветовых скоростях. В случае с лайнером, чтобы разница достигла
одной секунды, лайнеру пришлось бы облететь вокруг земли 400 миллионов раз.
В СТО Эйнштейн не только разделался с идеей абсолютного и одинакового для всех
времени, но и показал, что время и пространство не полностью отделены друг от друга, а
представляют собой некий единый комплекс, который теперь называют «пространствовремя». Направления во времени подобны направлениям пространства. Только во времени
мы не можем шнырять туда-сюда, а можем двигаться только в направлении будущего. Но
мы можем двигаться и под небольшим углом к этому направлению – вот почему время
может проходить с разными коэффициентами. Это значит, что все движения,
осуществляемые нами, происходят в четырехмерном пространстве-времени. Если вы не
движетесь в пространстве, то все равно движетесь во времени. Но если вы к тому же
начинаете движение в пространстве, то отвлекаете часть своего движения во времени.
Аналогично выглядит движение по диагонали в трехмерном пространстве.
Движущийся автомобиль во времени движется медленнее, чем автомобили, стоящие на
стоянке, так как часть его движения происходит в пространстве. Но чтобы все эти скорости
можно было соотносить между собой, необходимо предположить, что суммарная скорость в
пространстве и времени для всех объектов во вселенной одинакова. Эйнштейн выдвинул
предположение, что эта суммарная скорость в пространстве-времени всегда равна скорости
света. Наибольшая скорость движения в пространстве будет достигнута, когда вся скорость
движения тела во времени перейдет в скорость движения в пространстве, что мы и
наблюдаем в случае движения света. Поэтому фотоны никогда не стареют, и фотоны,
возникшие во время Большого взрыва, имеют тот же возраст, что и тогда.
Положение точки в пространстве мы задаем при помощи трех координат. Но эти
координаты должны быть с чем-то соотнесены. С чем именно – это зависит от удобства
измерения в конкретной ситуации. Например, измерять положение Луны относительно
«Высотки» города Архангельска не очень удобно. Гораздо лучше задать ее координаты
относительно Земли или Солнца. Но где находится само Солнце? Раз во Вселенной нет
единого центра, то выбор сетки координат всегда произволен (вернее, обусловлен удобством
и положением наблюдателя). В СТО любое событие задается четырьмя координатами, выбор
34
которых также произволен. При этом между пространственными и временными
координатами нет существенной разницы. Мы можем задать временную координату через
пространство, т.е. в световых секундах.
Еще одним важным следствием теории относительности будет установление
эквивалентности массы и энергии, выражаемое известным уравнением
2
E = mc
где Е – энергия, m – масса тела, с – скорость света.
Эта формула говорит нам о том, что энергия и масса подобны конвертируемым
валютам, чей обменный курс зафиксирован раз и навсегда: квадрат скорости света. Квадрат
скорости света – огромная величина, а это значит, что энергия, содержащаяся даже в
небольшой массе, также огромна. Пример тому – бомбардировка Хиросимы, когда менее
одного процента от 900 граммов урана было превращено в энергию.
Кроме того, эта формула еще раз объясняет, почему ничто не может двигаться быстрее
скорости света. Чем быстрее движется тело, тем выше его энергия, а чем выше энергия, тем
больше масса. А чем больше масса, тем больше энергии нам нужно затратить, чтобы
увеличить его скорость. При приближении к скорости света масса возрастает неограниченно,
а это значит, что нам придется затратить бесконечно большое количество энергии, чтобы
объект достиг и преодолел световой барьер.
Общая теория относительности
Итак, СТО объединила время и пространство, но они все еще оставались фоном, на
котором происходят события. Все изменилось в 1915 году, когда Эйнштейн предложил
Общую теорию относительности. Он выдвинул революционную идею о том, что гравитация
– это не просто сила, действующая в фиксированном пространстве-времени, а искривление
пространства-времени, вызванное массой и заключенной в ней энергией. Все объекты
пытаются двигаться в пространстве-времени по прямой, но оно искривлено, поэтому их
траектории тоже искривляются. Так, Земля двигалась бы по прямой, если бы Солнце со
своей огромной массой не искривляло бы пространство, изменяя траекторию движения
Земли и остальных планет нашей солнечной системы. Свет звезд тоже должен отклоняется
вблизи Солнца на определенную величину. Эйнштейн создал ОТО во время Первой
мировой войны, т.е. в не самое удачное время для наблюдений. Но в 1919 году британская
экспедиция, наблюдавшая солнечное затмение, подтвердила предположения Эйнштейна. Но
ОТО возникла не в один момент, ее основы были заложены почти сразу после
формулирования СТО, в 1907 году.
Но зачем Эйнштейну понадобилось создавать «вторую редакцию» собственной теории,
так прекрасно решившей «проблему эфира» и объяснившую постоянство скорости света?
Важным следствием СТО является то, что здесь ставится абсолютный предел
возможных скоростей: ничто, будь то тело, сигнал или воздействие любого рода, не может
обогнать фотоны. Этот вывод входит в противоречие с законом всемирного тяготения
Ньютона, согласно которому сила тяготения зависит только от массы тяготеющих тел и
расстояния между ними. Следовательно, если один из этих параметров изменится, тела
должны немедленно «почувствовать» изменение гравитационного притяжения. То есть, если
Солнце по каким-то трагическим причинам взорвется, наша планета в тот же миг сойдет с
орбиты, хотя вспышка света от взрыва дойдет до нас только через 8 минут. Иными словами,
согласно принципу дальнодействия, информация о взрыве Солнца дойдет до нас быстрее,
чем способны двигаться фотоны. Но это невозможно. Таким образом, Эйнштейн осознал,
что невероятно успешная теория тяготения Ньютона находится в противоречии со СТО.
Уверенный в истинности своей теории, Эйнштейн, невзирая на многочисленные
экспериментальные подтверждения теории Ньютона, стал работать над новой теорией
тяготения, известной теперь как ОТО, в которой понимание пространства и времени опять
претерпело серьезные изменения.
35
Один существенный недостаток теории тяготения Ньютона был известен и до
появления СТО: эта теория прекрасно предсказывала поведение тел, но ничего не говорила о
том, что представляет собой это тяготение. Таким образом, гравитация у Ньютона
представляла собой нечто вроде «черного ящика».
Важнейшей догадкой Эйнштейна было то, что мы можем имитировать гравитацию при
помощи ускорения. Эта догадка посетила Эйнштейна в 1907 году. Проиллюстрируем ее на
следующем примере. Предположим, что в одном правительственном здании злоумышленник
заложил бомбу и вас вызывают, умоляя ее обезвредить. Вы изучаете зловредный механизм, и
понимаете, что дела плохи: обезвредить бомбу не удастся. Одно утешает: до катастрофы
осталось 7 дней, но это слабое утешение, так как катастрофа будет планетарного масштаба.
Кроме того, бомба смонтирована на весах, и взрыв произойдет, если показания весов
изменятся более чем на 50% от имеющегося сейчас значения. Один ваш ассистент
предлагает вывести бомбу в космос и взорвать ее на безопасном от Земли расстоянии. Но вы
хорошо знаете физику Ньютона и указываете, что при удалении от Земли вес бомбы будет
уменьшаться и она взорвется раньше, чем достигнет безопасного расстояния. Вы в отчаянии,
но тут к вам подходит некто по имени Альберт и замечает, что ракета, несущая бомбу, будет
ускоряться, и вес бомбы будет наоборот, увеличиваться. Но из этого следует, что два
эффекта могут уравновесить друг друга, и тогда вы спасете планету.
Другой пример, иллюстрирующий идею Эйнштейна. Если вы находитесь в закрытом
вагоне (без окон), который движется абсолютно равномерно и прямолинейно, то вы не
можете определить, движется вагон или стоит на месте. Но если вагон ускоряется, или
взмывает ввысь также с ускорением, вы начинаете испытывать ощущения, схожие с
ощущением действия силы тяжести. (Следует вспомнить, что объект считается ускоренно
движущимся, если он изменяет скорость или направление своего движения.) Более того,
находясь в закрытом помещении, вы не сможете определить, когда на вас действует сила
тяготения, а когда ускорение. Если их величины и направление совпадают, то они становятся
неразличимыми. Эту неразличимость ускоренного движения и гравитации Эйнштейн назвал
принципом эквивалентности инерциальной и гравитационной масс. Этот принцип и
составляет основу ОТО.
Этот принцип эквивалентности дополнил принцип относительности. Если раньше речь
шла о единстве законов физики для наблюдателей, движущихся с постоянной скоростью или
покоящихся, то теперь можно было включить в этот принцип все точки зрения, в том числе и
тех, кто движется с ускорением. Вывод таков: все наблюдатели, независимо от состояния
движения, могут утверждать, что они неподвижны, а остальная часть мира движется рядом с
ними, если они подходящим образом введут гравитационное поле в описание своего
окружения. Это значит, что все возможные точки зрения действительно являются
равноправными.
Следующий прорыв в создании новой теории произошел примерно в 1912 году. Эта
идея касается связи между ускоренным движением и искривлением пространства-времени.
Мы привыкли думать, что евклидова геометрия является истинной моделью реального
пространства. Один из законов этой геометрии гласит: отношение длинны окружности к ее
радиусу равно 2π. Но если мы войдем во внутрь вращающегося круга, ограниченного
стенкой (есть такие аттракционы) и измерим одной и той же линейкой длину окружности и
радиус, то получится, что их отношение не равно 2π. Дело в том, что длинна тела
уменьшается в направлении его движения, и линейка, которой меряют окружность будет
меньше, чем та, которой измеряют радиус. Такое сокращение тел называют «лоренцовым
сокращением», по имени голландского физика Г. А. Лоренца (1853 - 1928). Для того чтобы
объяснить это явление, следует отказаться от идеи плоского пространства, ведь для
окружности, нарисованной на деформированной бумаге, законы евклидовой геометрии
также не выполняются. Возьмем неискривленное пространство и два искривленных:
выпуклое наподобие мяча и вогнутое наподобие седловины. Отношение длинны окружности
к радиусу в седловидной поверхности будет больше, чем 2π. А на шарообразной
36
поверхности, напротив, меньше 2π. В случае с вращающимся аттракционом мы имеем такое
же отклонение, как в случае с седловидной поверхностью. Эйнштейн доказал, что
аналогичный результат мы получим для всех типов ускоренного движения. Кроме того,
аналогичному искривлению подвергается и время.
Следствием этих расчетов и стала ОТО с ее новым пониманием гравитации. Согласно
ОТО, гравитация – это не какая-то сила, таинственным образом удерживающая планеты на
своих орбитах, а эффект, возникающий вследствие искривления пространства-времени
вблизи массивных тел. Все тела движутся по геодезическим линиям, если им не мешать.
Геодезическая линия – это кратчайший путь между двумя точками. На плоскости
геодезические линии являются прямыми, а в искривленном пространстве, разумеется, нет.
Так что Земля движется по своей эллиптической орбите вокруг Солнца не потому, что
последнее удерживает ее неведомыми силами, а потому, что такова ее геодезическая линия в
пространстве, искривленном гигантской массой Солнца.
Орбиты планет, предсказанные ОТО, почти в точности такие же, как и в классической
механике Ньютона. Самое большое расхождение касается орбиты Меркурия, который имеет
самую вытянутую орбиту. Согласно ОТО большая ось орбиты Меркурия должна
поворачиваться вокруг Солнца примерно на 1 градус за 10 тысяч лет. Этот эффект был
действительно зафиксирован, что опять же подтверждало справедливость теории
Эйнштейна. В последние годы, в полном согласии с ОТО, обнаружены еще менее заметные
отклонения орбит других планет от предсказаний Ньютона. Привлекательность ОТО состоит
не только в том, что ее предсказания лучше согласуются с наблюдениями, чем предсказания
Ньютона, но и в том, что Эйнштейн объясняет сам механизм действия гравитации. Кстати,
Эйнштейн был абсолютно согласен с Ньютоном в том, что гравитация должна передаваться
каким-то посредником, и у Эйнштейна таким посредником выступает структура
пространства.
Важным свойством массы и энергии является то, что они всегда положительны. В
рамках ОТО это означает, что пространство искривляется внутрь себя. Значит, гравитация
всегда будет отрицательной силой. Но не следует полагать, что Солнце «тянет»
пространство вниз, ибо искривление и есть само тяготение. Физик Джон Уиллер выразил это
так: масса управляет пространством, сообщая ему, как искривляться, а пространство
управляет массой, говоря ей, как двигаться. Но как быстро «передаются» такие сообщения,
т. е. какова скорость действия гравитации? Согласно Ньютону, она должна быть бесконечно
большой. Но это, как мы показали выше, не согласуется с СТО, ибо ничто не может обогнать
свет. Если мы поместим на резиновую пленку шарик, то искривляющие пленку возмущения
будут распространяться подобно волнам на воде. Через какое-то время переходные
колебания затухнут, и пленка перейдет в стационарное искривленное состояние. Скорость
распространения возмущений зависит от структуры материала. Эйнштейн сумел рассчитать
скорость, с которой распространяются возмущения структуры Вселенной в реальных
условиях, и оказалось (что уже не должно удивлять), что эта скорость равна скорости света.
Так что если Солнце вдруг исчезнет, на судьбу Земли и других планет это повлияет не сразу,
а спустя примерно 8 минут.
Стоит сделать еще одно замечание. Объясняя действие гравитации, мы говорили об
искривлении пространства. Но подобное искривление происходит и со временем: вблизи
массивных объектов время замедляет свой ход. Это означает, что у поверхности Земли время
должно течь медленнее, чем в некотором отдалении от нее. И этот эффект, хоть он и был
чрезвычайно мал, действительно был обнаружен в 1962 году, когда сверхточные часы
установили на вершине и у подножия водонапорной башни.
И, наконец, мы должны обсудить еще одно следствие, вытекающее из обеих редакций
теории относительности: динамический характер Вселенной. Специальная теория
относительности превратила пространство и время в динамические величины, а общая
теория относительности установила их связь с материей. Но, тем не менее, Эйнштейн, как и
его современники, был абсолютно убежден, что Вселенная в целом статична. Это убеждение
37
чем-то напоминает иррациональную веру Ньютона в универсальных характер пространства.
«Иррациональную», поскольку это противоречило его собственным законам движения.
Итак, Эйнштейн был убежден, что Вселенная статична. Более того, он вообще не был
сторонником философского релятивизма, и очень не любил, когда его теорию называли
«теорией относительности». Первоначальная формула ОТО предсказывала, что Вселенная
должна либо расширяться, либо сжиматься. Чтобы избежать этого вывода, Эйнштейн вводит
в свою теорию дополнительное условие, которое получило название «космологического».
Это космологическое условие должно было действовать наподобие антигравитации, чтобы
уравновесить гравитационные воздействия и сохранить Вселенную в статичном состоянии.
Но в 1929 году американский астроном Эдвин Хаббл открыл, что удаленные галактики
убегают от нас, то есть Вселенная расширяется. Это положило конец иллюзиям по поводу
статичного мироздания. Позднее Эйнштейн назвал космологическое условие «величайшей
ошибкой в своей жизни».
Современные теории происхождения и строения вселенной
Современная картина Вселенной начала прорисовываться в 1924 году, когда Хаббл
доказал, что Туманность Андромеды – это не часть нашей галактики и, следовательно, наш
Млечный путь – это не единственная галактика во Вселенной. Чтобы подтвердить это, он
доложен был определить расстояние от Земли до других галактик. Параллакс, при помощи
которого определяют расстояние до ближайших звезд здесь не годился, требовался новый
метод оценки расстояний, например, по яркости звезды. Но для того, чтобы использовать
видимую яркость в качестве меры расстояния, надо знать светимость звезды. Эту проблему
можно решить, если распределить звезды по классам (у ближайших звезд мы можем
измерить их светимость, так как в нашем распоряжении их видимый свет + расстояние до
них, измеренное при помощи параллакса): звезды одного класса обладают одной и той же
светимостью, так что если в далекой галактике обнаруживается звезда известного нам
класса, мы можем приписать ей светимость. Так Хаббл вычислил расстояние до 9 галактик.
Сегодня известно, что количество видимых глазом звезд (примерно 5000) – это 0,0001% от
числа всех звезд нашей галактики. А Млечный Путь – одна из более чем сотен миллиардов
галактик, наблюдаемых в современные телескопы.
Изучение света звезд может дать нам информацию о ее химическом составе. Дело в
том, что каждый химический элемент поглощает характерный для него набор цветов. Когда
в 20-е годы астрономы стали изучать спектры звезд в других галактиках, то оказалось, что у
них характерные наборы отсутствующих цветов те же, что и у звезд нашей галактики, но
только все они смещены к красному концу спектра, причем в одинаковой пропорции.
Физики называют такое смещение цвета или частоты «эффектом Доплера». Когда источник,
испускающий волны, движется к наблюдателю, длина волн уменьшается. При удалении она,
напротив, увеличивается, поэтому звук подъезжающей машины кажется нам выше, а
удаляющейся – ниже. Полиция и ГИБДД использует эффект Доплера для определения
скорости автомобилей. В отношении звезд красное смешение означает удаление объекта. В
1929 году Хаббл обнаружил, что величина красного смещения не случайна, а прямо
пропорциональна их удаленности от нас: чем дальше от нас галактика, тем быстрее она
удаляется. Отсюда следует, что Вселенная не может быть неизменной в размерах, как
считалось ранее. Она расширяется и расстояние между галактиками постоянно растет.
Три модели Фридмана
В 1922 году российский метеоролог и физик Александр Фридман, используя уравнения
Эйнштейна (ОТО), детально продемонстрировал, что все галактики переносятся в субстрате
расширяющегося пространства, быстро удаляясь друг от друга. Кроме уравнений Эйнштейна
Фридман опирался на два простых предположения:
- Вселенная выглядит одинаково, в каком бы направлении мы на нее ни смотрели;
- данное положение верно, из какой бы точки Вселенной ни велось наблюдение.
38
Фридман нашел так называемое решение Большого взрыва для уравнений Эйнштейна,
т.е. решение, согласно которому Вселенная развивается из начального состояния
бесконечного сжатия и в настоящий момент находится в стадии расширения после
исходного взрыва. Эйнштейн был так уверен в невозможности такого положения дел, что
даже опубликовал короткую статью о якобы найденной им грубой ошибке в работе
Фридмана. Восемь месяцев потребовалось Фридману, чтобы убедить Эйнштейна, что
никакой ошибки не было, после чего Эйнштейн публично, но кратко, снял свои возражения.
Несмотря на то, что Фридман фактически предвосхитил результаты наблюдений
Хаббла, его работа была практически неизвестна на Западе до 1935 года, когда подобную
модель развития Вселенной выдвинули американский физик Горвард Робертсон и
британский математик Артур Уокер, но уже «по следам» наблюдений Хаббла.
Предложенная Фридманом модель расширения Вселенной напоминает расползание
цветовых пятен на надуваемом шарике. Но его расчеты допускают три класса решений, то
есть имеет смысл говорить о трех фридмановских моделях.
Первая модель (собственно предложенная Фридманом): расширение Вселенной
происходит достаточно медленно, так что притяжение между галактиками должно
постепенно его замедлять, и в конце концов остановить вовсе, после чего начнется обратный
процесс сближения галактик, и Вселенная закончит свои дни в Большом Схлопывании.
Вторая модель предполагает, что расширение Вселенной происходит настолько
быстро, что гравитации лишь немного замедляет разбегание галактик, но никогда не сможет
его окончательно остановить, то есть расширение будет продолжаться бесконечно.
Согласно третьей модели, Вселенная расширяется как раз с такой скоростью, чтобы
только-только избежать Схлопывания. Со временем скорость разлета галактик становится
все меньше и меньше, но никогда не достигнет нуля.
Возникает вопрос, а какая из этих моделей описывает нашу Вселенную? Ответить на
него оказалось труднее, чем представлялось ученым сразу. Ответ зависит главным образом
от двух факторов: наблюдаемой ныне скорости расширения Вселенной и от сегодняшней ее
плотности (т.е. количества материи, приходящегося на единицу пространства). Если средняя
плотность выше некоторого критического значения, определяемого скоростью расширения,
то гравитация сможет остановить расширение и заставит Вселенную сжиматься. Если
средняя плотность меньше этого критического значения, тогда верна вторая модель. Если
средняя плотность равна критическому значению, тогда верна третья модель.
Определить скорость расширения можно, используя эффект Доплера, но нам не очень
хорошо известны расстояния до галактик. Поэтому значение скорости расширения
получается довольно расплывчатым: от 5 до 10 % за 1 миллиард лет. Еще сложнее с
плотностью. Если мы сложим массы всех видимых звезд (всю видимую материю), ее масса
будет слишком мала, чтобы остановить расширение даже при самой низкой оценке его
скорости. Но поведение звезд в галактиках, говорит о том, что на их орбиты оказывает
гравитационное воздействие так называемая «темная материя», т.е. невидимая материя. Судя
по всему, количество «темной материи» во Вселенной значительно превышает количество
обычного вещества. Но даже если учесть все, что нам известно о «темной материи», мы
получим всего лишь 1/10-ю часть от той массы, которая необходима для остановки
расширения. Конечно, нельзя исключать существование других, еще неизвестных нам форм
материи. Однако до последнего времени большинство физиков сходилось на том, что ближе
всего к реальности вторая фридмановская модель. Но наблюдения последних лет дают
некоторые свидетельства в пользу третьей модели. Раз количество материи для объяснения
такого состояния Вселенной недостаточно, физики стали постулировать существование пока
еще не обнаруженной субстанции - «темной энергии». Но и это не все. Недавние
наблюдения показали, что расширение Вселенной не замедляется, а ускоряется, что
противоречит любой модели Фридмана. Это очень странно, так как присутствие любого
вещества, сколь бы мало его ни было, должно замедлять расширение. Какая сила
ответственна за ускоряющееся расширение, неизвестно.
Поэтому Стивен Хокинг
39
предполагает, что Эйнштейн, вводя в свои уравнения космологическую постоянную
(ответственную за эффект антигравитации), не так уж и сильно ошибался.
Квантовая механика
Мы уже говорили о том, что Эйнштейн ввел в свою теорию «космологическое
условие», дабы сохранить вселенную статичной. И после открытия Хаббла Эйнштейну
пришлось признать ошибку. Но с космологическим условием или без него, ОТО
предсказывает искривление пространства внутрь себя. Можно предположить, что
искривление станет настолько сильным, что некоторая область пространства-времени
окажется изолированной от остальной Вселенной. Она превратиться в то, что мы теперь
называем «черной дырой». Объекты могут падать в черную дыру, но не могут вырваться
оттуда. Чтобы вырваться, им пришлось бы двигаться со сверхсветовой скоростью, что
запрещено теорией относительности. Получается, что материя внутри черной дыры
оказывается в ловушке, и ей ничего не остается, как сжиматься под действием гравитации до
состояния чрезвычайно высокой плотности. Эйнштейну не нравилась идея такого коллапса
материи и он отказывался в нее верить.
В 60-х годах Стивен Хокинг и Роджер Пенроуз доказали несколько теорем, из которых
следовало, если пространство-время искривляются внутрь себя, то неизбежно появление
сингулярностей – то есть таких мест, где пространство и время имеет начало и конец. Но это
не все: уравнения ОТО, связывающие искривление пространства-времени с распределением
массы и энергии, в этой точке сингулярности теряют смысл! Получается, что ОТО, разрешив
одно противоречие, породила другое. Сингулярное состояние должно было иметь место при
Большом Взрыве примерно 15 миллиардов лет назад. Если теория относительности ничего
не может сказать о том, что происходит в точке сингулярности, то она бессильна и в
объяснении возникновении Вселенной при Большом Взрыве. Это значит, что ОТО –
незавершенная теория и нуждается в дополнении некоей составляющей, которая смогла бы
объяснить, что происходит, когда материя коллапсирует под действием собственной
гравитации. Таким дополнением и стала квантовая механика.
Квантовая механика представляет собой систему понятий, предназначенную для
описания свойств микромира. В ее построение значительный вклад внесли такие ученые, как
Эрвин Шредингер (1887 - 1961), Вернер Гейзенберг (1901 - 1976), Марк Борн (1882 - 1970) и
другие.
Строение атома
Еще в античности возникло два представления о структуре материи: идея
непрерывности и идея дискретности (discretus - прерывный). Анаксагор и Аристотель
считали, что материя непрерывна, а значит, может делиться до бесконечности, принимая как
бесконечно малые, так и бесконечно большие значения. Демокрит, напротив, считал, что
материя имеет как бы «зернистую» природу, то есть она дискретна и существует предел ее
делимости – атом. Теперь известно, что взгляд Демокрита больше соответствует
действительности, по крайней мере, при нынешнем состоянии Вселенной. Но также известно
и то, что атомы были не всегда и они не являются простыми образованиями, как полагал
Демокрит. Атомы состоят из электронов, протонов и нейтронов. Протоны и нейтроны, в
свою очередь, состоят из кварков. Каждому типу субатомных частиц соответствуют
античастицы, той же массы, но противоположным зарядом. Электрон был открыт в 1897
году, так что этот год можно считать датой окончательной смерти древней идеи о
неделимости атома.
Но если атом делим, то какова его структура? Первая модель атома была построена в
1903 году английскими физиками В. Томсоном и Дж. Томсоном, и напоминала булочку с
изюмом: положительный заряд равномерно распределен по всей сфере атома, а
отрицательно заряженные электроны располагаются внутри сферы концентрическими
слоями. Идею о том, что атом по своей структуре напоминает Солнечную систему, впервые
40
высказал японский физик Нагаока в 1904 году. Согласно такой «планетарной модели»
электроны вращаются вокруг положительно заряженного ядра. Но такой атом получается
очень неустойчивым, что противоречит фактам. Поэтому «планетарная модель» поначалу не
привлекла к себе должного внимания. Но в результате опытов, проведенных в лаборатории
английского физика Э. Резерфорда (1871 - 1937) в 1909-1910 годах «планетарная модель»
атома получила подтверждение.
Модель атома Резерфорда была следующей: в центре расположено положительно
заряженное ядро размером порядка 10-13 см., вокруг которого вращаются электроны, число
которых таково, что общий заряд атома равен 0, и это число соответствует порядковому
номеру элемента в периодической системе Менделеева. Однако модель Резерфорда также не
объясняла, почему атом устойчив. Ведь согласно электродинамике, вращающиеся электроны
должны терять энергию и падать на ядро.
Для того чтобы объяснить, почему этого не происходит, пришлось выйти за рамки
классической физики и вступить на почву квантовой теории.
В 1913 году датский физик Нильс Х.Д. Бор (1885 - 1962) внес в планетарную модель
атома принципиально новые идеи, получившие название «постулатов Бора».
Первый постулат. Каждый электрон может совершать устойчивое движение по
определенной стационарной орбите, не испуская и не поглощая электромагнитного
излучения.
Второй постулат. Если электрон переходит с одной орбиты на другую, то он
испускает или поглощает определенную порцию энергии, величина которой будет кратной
кванту энергии ħv:
En- Em = ħv
En и Em обозначают значения энергий стационарных орбит,
ħv – энергию фотона, или квант энергии.
Дискретность и непрерывность
В самом начале 20 века немецкий физик Макс Планк (1858 - 1947) пришел к идее
дискретного характера излучения и поглощения энергии. Это значит, что энергия
излучается и поглощается не в каких угодно количествах, а определенными порциями. В
1905 году к такому же выводу пришел А. Эйнштейн, исследуя явление фотоэлектрического
эффекта (когда свет падает на определенные металлы, выделяются заряженные частицы).
Энергия распределяется строго определенными порциями, которые Планк назвал
«квантами» (от лат. quantum - сколько). Это похоже на магазин, где вы не можете купить
сахар или муку в тех количествах, в каких вам захочется, но только в расфасовке по полкило.
Физик Георгий Гамов заметил по поводу дискретности энергии волн: это подобно тому, как
если бы природа разрешала нам либо пить целый литр пива, либо не пить вовсе, не допуская
промежуточных доз.
Энергия излучения стала определяться по формуле
E=nħv
где n – число испущенных квантов, ħ - та самая строго определенная порция энергии,
высчитанная Планком и названная «постоянной Планка», v – частота излучения. Поскольку
Планк полагал, что распределение энергии на дискретные части является лишь
вспомогательным математическим приемом, смысл «постоянной Планка» был поначалу
неясен ему самому. Но устранить эту величину не удалось. Получается, что Лейбниц был
неправ, утверждая, что «природа не делает скачков». Оказывается, что на уровне микромира
природа скачет, и очень активно. По убеждению Планка, амплитуда скачков энергии растет
по мере увеличения частоты волны (то есть уменьшения ее длины). Но нам эти скачки
практически незаметны, так как «постоянная Планка» - это ничтожно малая величина. Если
бы она была больше, то квантовые скачки стали бы обычным явлением макромира, а значит
41
и нашей повседневной жизни. Жить в таком мире было бы крайне неудобно, если вообще
возможно. Но поскольку энергия расфасована очень маленькими порциями, мы можем,
слушая музыку, ублажать себя иллюзией, что энергия звуковой волны изменяется
непрерывно, хотя на самом деле переход от одного уровня громкости к другому происходит
скачкообразно.
«Постоянная Планка» наводит на мысль, что существуют своеобразные «атомы
энергии». Эту идею и воспринял Эйнштейн, когда стал утверждать, что свет испускается
строго определенными пакетами, или в виде дискретных микроскопических объектов –
квантов света, которые и были названы Гильбертом Льюисом «фотонами». Таким образом,
Эйнштейн показал, что гипотеза Планка отражает фундаментальное свойство
электромагнитных волн: эти волны состоят из частиц – фотонов. Дискретность энергии
объясняется тем, что электромагнитные волны состоят из дискретных объектов. Получается,
что свет обладает как волновыми, так и корпускулярными свойствами, что очень странно,
ибо в привычном нам мире эти свойства считаются взаимоисключающими. Такой подход,
идеи которого были впервые высказаны Эйнштейном в 1909 году, получил название
корпускулярно-волнового дуализма, и в нем дискретность неожиданным образом
оказывается связанной с непрерывностью.
В 1922 году французский физик (и аристократ) Луи де Бройль (1892 - 1987)
распространил гипотезу корпускулярно-волнового дуализма и на строение вещества. Он
исходил из формулы Эйнштейна, связывающей массу с энергией, дополнив ее связью
энергии с частотой волн. Получается, что масса должна иметь волновое воплощение, и
длина волны в каждом конкретном случае вычисляется по следующей формуле:
γ = ħ /mv
где γ – длинна волны, ħ – постоянная Планка, mv – импульс тела. Эйнштейн сразу
принял идею де Бройля, и вскоре она получила экспериментальное подтверждение в опытах
Клинтона Дэвиссона и Лестера Джермера.
Разрыв с классической физикой
Мы уже говорили о том, что термодинамика, электродинамика, и тем более теория
относительности Эйнштейна выходят за рамки классической механики Галилея и Ньютона,
и даже вступают с ней в противоречие. Но, тем не менее, даже ОТО Эйнштейна оставалась
классической теорией, поскольку она не включала в себя принцип неопределенности.
Вселенная представлялась гигантским исправно работающим механизмом, объекты
которого, приведенные в движение в какой-то момент прошлого, покорно следовали к
неизбежному, единственным образом определяемому пункту назначения. Представление о
такой покорности своей физической судьбе носит название «лапласовского детерминизма».
Если Пьер Симон Лаплас был прав, то физические законы позволят нам по известному
сегодняшнему состоянию Вселенной определить ее состояния в прошлом и будущем.
Квантовая механика предлагает нам распрощаться с таким взглядом на мир. Согласно
ее положениям, Вселенная действительно развивается в соответствии со строгими и
точными математическими законами, но эти законы определяют только вероятность того,
что может то или иное конкретное будущее, и ничего не говорят о том, какое будущее
наступит в действительности. Так что принципиальное отличие квантовой механики от
классических физических теорий состоит, прежде всего, в том, что ее законы являются
статистическими, а предсказания носят вероятностный характер. Многие сочли
неприемлемым для физики отдавать Вселенную на волю случая. Альберт Эйнштейн выразил
свое чувство протеста против квантовой механики в знаменитой фразе: «Бог не играет в
кости со Вселенной». Но прав оказался не Эйнштейн, а американский физик Ричард
Фейнман, заметивший, что абсолютно точное предсказание нам не просто недоступно, оно
немыслимо. Как выразился один из ведущих современных физиков Стивен Хокинг, Бог,
похоже, весьма заядлый игрок. Наличие у материи волновых свойств было подтверждено
42
многочисленными экспериментами, а это значит, что фундаментальное описание материи
должно иметь вероятностный характер.
Для понимания сути квантовой механики, необходимо усвоить два ее базовых
принципа: принцип неопределенности и принцип дополнительности.
Принцип неопределенности.
Опыты Джермера и Дэвиссона продемонстрировали, что электроны подобны волнам.
Но тут напрашивается вопрос: волнам чего? Австрийский физик Эрвин Шредингер высказал
по этому поводу идею, что эти волны представляют собой «размазанный электрон». Однако
никому не приходилось иметь дела с третью или одной пятой электрона. В 1926 году
немецкий физик Марк Борн уточнил предложенную Шредингером интерпретацию
электронной волны. Согласно Борну, электронная волна должна интерпретироваться с точки
зрения вероятности: в тех областях, где амплитуда (вернее, ее квадрат) волны больше,
обнаружение электрона более вероятно, чем там, где амплитуда мала.
Ричард Фейнман, в отличие от Борна и Шредингера, объяснил квантовые эффекты, не
приписывая каждому электрону волновую функцию. Вместо этого, он предположил, что
электрон, перемещаясь из одной точки в другую, движется одновременно по всем
возможным траекториям, причем сразу. Если каждой траектории присвоить некоторое
число, то общее среднее этих чисел даст ту же вероятность, что и расчет с использованием
волновой функции. Такой подход известен как фенмановское «суммирование по путям». Как
заметил сам Фейнман, квантовая механика дает совершенно абсурдное с точки зрения
здравого смысла описание Природы. И оно полностью согласуется с экспериментальными
данными.
Следующий шаг был сделан Вернером Гейзенбергом (1901 - 1976), открывшим в 1927
году соотношение неопределенностей. Гейзенберг выразил его в виде математического
соотношения между точностью измерения положения электрона и точностью определения
его скорости. Он установил, что эти величины обратно пропорциональны друг другу:
большая точность в определении положения неизбежно ведет к большей погрешности в
определении скорости, и наоборот.
Δx Δp = ħ
Δx
–
неопределенность
координаты
Δp
–
неопределенность
импульса
измерения
Их произведение должно примерно
равняться постоянной Планка
измерения
И этот компромисс между точностью определения положения и скорости является
фундаментальным, то есть он не зависит от используемого оборудования и метода
измерения. Источник неопределенности, согласно Гейзенбергу, – в корпускулярно-волновом
дуализме свойств материи. Между неопределенностью и хаосом существует
фундаментальная связь, а значит микромир изначально хаотичен.
Если мы вернемся к Фейнману, который обошелся без приписывания частицам
волновых функций, то неопределенность все равно никуда не денется. «Суммирование по
путям» говорит нам о том, что система не имеет одной единственной предыстории в
пространстве-времени. Вместо этого нам приходится суммировать все возможные
предыстории, которые имеет система.
Принцип дополнительности.
Этот принцип, выдвинутый Нильсом Бором в 1927 году, представляет собой реакцию
на соотношение неопределенностей.
Если мы рассматриваем микромир с позиции
43
корпускулярно-волнового дуализма, то возможна ситуация взаимоисключения, так как
объект не может быть одновременно и частицей, и волной. Поэтому лучше всего определить
сферы компетенции корпускулярного и волнового подхода: первый хорош, когда налицо
стационарные состояния, а второй – когда речь идет об излучении. Оба подхода дополняют
друг друга, однако отношения между ними можно определить через понятие
контингентности. При переходе ученого от одного подхода к другому путеводителем
выступает принцип неопределенности. Фактически же квантовая механика основана на
совершенно новом математическом аппарате, который не описывает реальный мир ни в
терминах частиц, ни в терминах волн. Просто для некоторых целей удобнее рассматривать
волну как частицу, а для других – частицу как волну.
Синергетика
Синергетика является наследницей таких междисциплинарных подходов, как теории
систем Людвига Фон Берталанфи (1901 - 1972) и кибернетики Норберта Винера (1884 1964), а также тех разделов естественных и технических наук, которые занимаются
эволюцией сложных систем. На становление методов синергетики огромное влияние оказал
французский математик Анри Пуанкаре, заложивший основы методов нелинейной динамики
и качественной теории дифференциальных уравнений.
В 1963 году произошло эпохальное открытие динамического хаоса. Э. Лоренц
разрабатывает глобальную компьютерную модель для предсказания погоды и приходит к
удивительному выводу: используя ту же самую систему уравнений с почти одинаковыми
начальными условиями, можно прийти к разным результатам. Такая неустойчивость
решения по начальным данным получает название «эффекта бабочки»: такая мелочь, как
взмах крыла бабочки, может радикально изменить ход событий в отдаленной перспективе.
В 70-х годах 20 века, благодаря трудам Германа Хакена (немец) и Ильи Пригожина
(бельгиец) по исследованию физики неравновесных состояний, в научный оборот входит
термин «синергетика». Синергетика определяется как научная область, занимающаяся
изучением сложных неравновесных систем. Сложные системы, характеризующиеся
открытостью и нелинейностью своих процессов, способны к замечательной вещи –
самоорганизации. Если организация возникает под воздействием внешних причин, то
самоорганизация – это процесс упорядочивания системы, происходящий в силу внутренних
факторов самой системы.
Любой эволюционный процесс представляет собой смену состояний порядка и хаоса,
которые соединены фазами перехода: от порядка к хаосу (гибель структуры) и от хаоса к
порядку (самоорганизация). Стабильная, упорядоченная фаза обычно оказывается самой
протяженной во времени. Для этой стабильной фазы характерны два принципа:
гомеостатичность и иерархичность.
Гомеостатичность. Гомеостаз – это поддержание программы функционирования
системы в некоторых рамках, позволяющих ей следовать к своей цели. Согласно Н. Винеру,
всякая система имеет цель существования, от которой система получает корректирующие
сигналы, позволяющие «не сбиться с курса». Эта корректировка осуществляется за счет
отрицательной обратной связи, подавляющей любое отклонение в программе, возникшее
под действием внешних сил. Такую цель-программу поведения системы в состоянии
гомеостаза называют аттрактором (притягивателем). Аттракторы существуют только в
открытых диссипативных системах, т. е. системах, способных рассеивать энергию, вещество
и информацию. Аттракторы описывают финальное поведение системы.
Иерархичность. Наш мир иерархизирован по многим признакам, например, по
масштабам длин, времени и энергий. Основным смыслом структурной иерархии является
составная природа вышестоящих уровней по отношению к нижестоящим. То, что для
нижнего уровня является структурой-порядком, для высшего есть бесструктурный элемент
хаоса, строительный материал. Элементы, связываясь в структуру, передают ей часть своих
функций, которые начинают выражаться как бы от «коллектива всей системы». Эти
44
«коллективные переменные» возникают и существуют на более высоком иерархическом
уровне, нежели элементы системы. Именно они и представляют собой цели-аттракторы
системы. Здесь срабатывает «принцип подчинения»: изменение на коллективные
переменные как бы «дирижируют» поведением элементов низшего уровня. Но такой
принцип подчинение справедлив не всегда и его не стоит абсолютизировать.
Для «переходно-хаотической» фазы можно выделить пять базовых принципов:
Нелинейность. Это то качество системы, которое мы, как правило, не готовы принять.
В средней и высшей школе нас учат решать линейные задачи, так как линейные колебания
характерны для гомеостаза системы. Линейность экономит наши интеллектуальные усилия,
но в то же время создает иллюзию простоты этого мира. Определяющее свойство линейных
систем можно описать как принцип суперпозиции:
Результат суммарного воздействия на систему = сумме результатов
Другими словами: линейный отклик системы всегда прямо пропорционален
воздействию.
Увы, в таком мире эволюция была бы просто невозможной!
Нелинейность есть нарушение принципа суперпозиции:
Результат суммы причин ≠ сумме результатов этих причин
Результат суммы воздействий на систему не равен сумме результатов этих воздействий.
Другими словами это можно описать так: результат не пропорционален усилиям (иначе, как
говорят, игра бы не стоила свеч). Целое не есть сумма его частей. Качество суммы не равно
качеству слагаемых.
Что этот принцип нелинейности означает на практике? Когда мы строим прогнозы, мы
линейно экстраполируем в будущее происходящее сейчас или бывшее в прошлом. Это
основной стандарт нашего мышления. Но, как нам прекрасно известно, такие прогнозы не
всегда оправдываются. Классическая наука по этому поводу заметила бы, что такие ошибки
есть результат того, что мы учли не все причины, поэтому промахнулись со следствием.
Синергетика как раздел неклассической науки утверждает: даже если учтем абсолютно все
причины (все исходные данные начальных условий), все равно можем промахнуться с
прогнозом, так как в мире существуют нелинейные эффекты. Но эти нелинейные эффекты
проявляются не всегда и не везде (иначе мир для нас действительно стал бы
непрогнозируемым хаосом). Они возникают на границах системы, при переходе от одного
гомеостаза к другому.
Незамкнутость (открытость). Этот принцип означает, что мы не можем
пренебрегать взаимодействием системы с ее окружением. Любую систему можно считать
замкнутой, но лишь какое-то время. Для замкнутой физической системы справедливы
фундаментальные законы сохранения материи, энергии, импульса. В замкнутых системах с
большим числом частиц справедлив второй закон термодинамики, гласящий, что энтропия
(мера хаоса, обозначаемая S) или нарастает, или остается постоянной.
S≥O
Второй закон термодинамики дает нам весьма грустный прогноз в отношении
Вселенной: тепловая смерть. Порядок замкнутой системы не может увеличиваться, поэтому
если где-то идет нарастание порядка (например, строится цивилизация), то это может
происходить лишь за счет увеличения беспорядка в окружающей среде (кризис экологии,
энтропия планеты и окружающего космоса).
Однако для открытых систем, каковыми являются все живые и социальные системы,
второй закон термодинамики неприменим, и в них может возрастать порядок (то есть
уменьшаться энтропия). Открытость позволяет системам эволюционировать. В неживой
природе также можно говорить об открытых системах, о чем свидетельствует эволюция
Солнечной системы. Если при переходе от одного гомеостаза к другому система становится
нелинейной, то она в этих фазах должна рассматриваться как открытая система.
Неустойчивость. Состояние, траектория или программа системы неустойчивы, если
любые сколь угодно малые отклонения от них со временем увеличиваются. В точке
45
неустойчивости любая система становится открытой, что делает ее чувствительной к
воздействиям других иерархических уровней. Например, перевернутый маятник может
упасть вправо или влево от случайных тепловых колебаний материала маятника –
параметров, ранее, в устойчивом состоянии, совершенно несущественных. Кажется, что
неустойчивость – это не очень хорошее свойство. Но надо иметь в виду, что в состоянии
неустойчивости система получает доступ к информации, ранее для нее недоступной.
Такие состояния неустойчивости, когда исход выбора может быть решен самыми
случайными факторами, называют точками бифуркации. Точка бифуркации – это рубеж
между новым и старым, поэтому она непременно возникает при рождении нового качества.
Существуют системы, в которых точки бифуркации почти повсеместны, например, развитая
турбулентность.
В своей Нобелевской лекции Илья Пригожин так определил синергетическое
представление о бифуркации: «Обнаружение феномена бифуркации ввело в физику элемент
исторического подхода… Любое описание системы, претерпевшей бифуркацию, требует
включения как вероятностных представлений, так и детерминизма. Находясь между двумя
точками бифуркации, система развивается закономерно, тогда как вблизи точек бифуркации
существенную роль играют флуктуации, которые и определяют, какой из ветвей кривой
будет далее определяться поведение системы»2.
В точке бифуркации возникает несколько ветвей потенциально возможных
продолжений развития системы. Выбор одной из ветвей определяется воздействием на
систему одной из возникающих в этот же период времени флуктуаций – случайных
отклонений системы от некоторого среднего положения.
Выход из точки бифуркации, или кризисного состояния материальной системы, может
быть деструктивным и конструктивным. Деструктивный выход реализуется благодаря
механизмам достижения равновесных состояний, но это состояние достигается на более
низком уровне организованности, чем был у данной системы. При деструктивном выходе
нередко наблюдается однозначность перехода. Например, когда в недрах звезды
вырабатывается все ядерное горючее, то ее переход в новое состояние однозначно
определяется ее исходной массой. Смерть живого многоклеточного организма тоже есть
пример такого выхода при достижении равновесного состояния с окружающей средой.
Конструктивные выходы из кризисных состояний стали изучаться наукой сравнительно
недавно. Такой тип выхода реализуется благодаря механизмам самоорганизации. Основное
условие для проявления самоорганизации состоит в том, чтобы поступающая извне энергия
превышала потери энергии внутри системы. Но одного этого условия недостаточно. Выход
считается конструктивным, если система приобретает качественно новое состояние с более
высоким уровнем организации, чем до ее вступления в этап бифуркации.
Динамическая иерархичность (эмерджентность). Этот принцип описывает
возникновение нового качества системы по горизонтали, т.е. на одном уровне, когда
медленное изменение управляющих параметров на вышестоящем уровне (мегауровне)
приводит в бифуркации на нижестоящем уровне (макроуровне) Но тут возникает
необходимость включить еще один уровень – уровень микромира, принципы существования
которого были осмыслены в науке лишь во второй половине 20 века. Возникновение нового
качества можно описать следующей креативной триадой:
«управляющие сверхмедленные параметры верхнего мегауровня» + «короткоживущие
переменные низшего микроуровня» = «новые структурообразующие долгоживущие
коллективные переменные нового макроуровня»
или
МЕГА + МИКРО = МАКРО new
Но как возможен непосредственный контакт мега- и микроуровней? Дело в том, что в
точке бифуркации прежний макроуровень исчезает, что и дает возможность такого контакта.
2
Пригожин И. Время, структура и флуктуации (Нобелевская лекция) // Успехи физических наук. 1980.
Т. 131. с. 185
46
В результате контакта возникает новый макроуровень с иными качествами. Процесс
рождения нового порядка может ощущаться нами как беспорядок в силу повышения
сложности и непредсказуемости системы.
Наблюдаемость. Этот принцип подчеркивает ограниченность и относительность
наших представлений о системе в конечном эксперименте. Например, в теории
относительности у каждого движущегося наблюдателя свои метры и секунды. В квантовой
механике, если мы точно измерили положение частицы, то остались в неведении
относительно ее импульса, и, наоборот (о чем говорит нам принцип дополнительности Н.
Бора).
В синергетике это означает относительность интерпретаций к масштабу наблюдений и
начальному ожидаемому результату. Так, то, что было хаосом с позиции макроуровня,
превращается в структуру при переходе к масштабам микроуровня. Это значит, что сами
понятия порядка и хаоса оказываются относительными к масштабу наблюдения. Принцип
наблюдаемости говорит нам еще и о том, что проблема интерпретации в науке часто бывает
сродни проблеме распознавания образов: мы видим в первую очередь то, что хотим и готовы
увидеть. Мы приводим аргументы и объяснения из арсенала культурно-исторических
доминант, в которых воспитаны, научных парадигм, которым следуем, и авторитетов,
которым верим.
47
РАЗДЕЛ 2. ПРИРОДА И СТРУКТУРА НАУЧНОГО ЗНАНИЯ
Синтетическая природа научного знания
Согласно И. Канту, все виды знания можно разделить на эмпирические и априорные.
Эмпирический тип знания следует, по-видимому, определить как знание, содержащее некие
фактологические констатации, но не содержащие их трактовок. Примером априорного
знания являются неевклидовы геометрии. Если возникновение классической евклидовой
геометрии можно, по-видимому, связать с эмпирическими наблюдениями за свойствами
геометрических фигур в процессе различных видов практической деятельности (раздел
земельных участков, строительство и т. п.), то неевклидовы геометрии, по крайней мере, в
момент их возникновения, представляли собой чистый продукт ума, не имеющий никаких
аналогов в эмпирической действительности. Попытка физиков применить концептуальный
аппарат неевклидовых геометрий к описанию физических объектов микро- и макромира
были предприняты десятилетия спустя после смерти создателей этих априорных схем.
Все научные дисциплины, а также входящие в их состав частные научные направления,
можно расположить на идеально-типической шкале, на одном полюсе которой будут
располагаться науки чисто или в значительной степени априорные, а на другом - чисто или в
значительной степени эмпирические. Примером первых, как уже говорилось, можно считать
неевклидовы геометрии и некоторые другие отрасли математики. К числу вторых можно
отнести, в частности, фармакологию, науку о лекарствах. Известно, что до настоящего
времени поиск новых лекарств ведется в значительной степени эмпирическим путем, т. е.
методом проб и ошибок. Науки, находящиеся в промежутке между априорным и
эмпирическим полюсами, следуя терминологии И. Канта, должны быть охарактеризованы
как синтетические. К их числу относится основной массив научных дисциплин, включая
естественные и социальные науки.
Современная философия науки сохраняет представление о научном знании как о
синтетическом, хотя трактовки этого термина со времен Канта во многом изменились. Если
для Канта источником априорного компонента были априорные формы чувственности
(пространство и время) и рассудка (причина, необходимость и т.д.), то современный взгляд
на эту проблему берет начало в работах Карла Мангейма. Априорным началом в
индивидуальном сознании выступает предшествующий социальный опыт. В научном знании
роль этого начала выполняют научные труды предшественников, т. е. выработанный
соответствующей научной субкультурой концептуальный и понятийный аппарат. Научные
достижения рассматриваются, таким образом, не как продукт познавательной деятельности
отдельного субъекта, а как элемент интеллектуальной традиции, априорной для каждого
конкретного индивида и для каждого последующего поколения ученых.
Существование в науке фактора интеллектуальной преемственности означает, что ни
один ученый никогда не работает как чистый эмпирик, но всегда рассматривает изучаемую
действительность сквозь призму выработанного его предшественниками теоретического и
понятийного аппарата. В естествознании игнорирование теории и следование чистой
эмпирии заведомо обречено на провал. В социологии же такой путь хоть и имеет
относительный шанс дать значимый научный результат, но все же является крайне
неэффективным. При этом на успех здесь можно рассчитывать лишь при использовании
гибких качественных методов как самостоятельных или в сочетании с количественными, но
практически невозможно при использовании только количественных методов.
Итак, научное знание по своей природе является синтетическим и представляет собой
своего рода сплав эмпирических данных и понятийно-дедуктивных логических конструкций.
Согласно К. Попперу, научное знание следует называть синтетическим, в частности, потому,
что наблюдаемая эмпирическая действительность всегда сложна, многозначна и вместе с тем
неполна. Уже по одной этой причине научная теория не может рассматриваться как
детерминированное отображение эмпирических данных. Такое понимание познавательного
48
процесса получило название гештальт-эпистемологии, уподобляющей механизм создания
научной теории формированию целостного когнитивного образа в условиях неполной
информации.
Иллюстрацией такого механизма может служить теория биологической эволюции
Ч.Дарвина. Эту теорию нельзя назвать чисто эмпирической хотя бы потому, что Дарвин не
жил в предшествующие геологические эпохи и лично не наблюдал процесс эволюции. То,
что он реально наблюдал, есть своего рода «проекция» результатов эволюции на
сегодняшнее многообразие биологических видов. Суть теории заключается, следовательно, в
попытке, глядя на эмпирическую проекцию явления, силой воображения реконструировать
само явление, которое в данном случае в принципе не наблюдаемо. Этот пример
демонстрирует, по-видимому, универсальный механизм формирования научных теорий,
будь то теория относительности А. Эйнштейна или же общая теория неврозов 3. Фрейда и
др.
Для дальнейшего важно подчеркнуть, что взятая нами в качестве примера теория
Дарвина строго формальна и базируется всего на трех отвлеченных понятиях: изменчивости,
закреплении признаков и отборе. Таким образом, хотя в основе теории лежат эмпирические
наблюдения, сама она является дедуктивно-аксиоматической, и в качестве таковой не имеет
принципиальных отличий от априорных математических построений.
Наука и не-наука: критерий демаркации
Проблема критериев, на основании которых можно отделить истинное, надежное,
обоснованное знание от субъективного мнения, является классической философской
проблемой. В современной философии науки эта проблема приобретает вид вопроса о
критерии демаркации. В общем виде критерий демаркации — это «разделительная черта»
между научным и ненаучным знанием.
Здесь сразу же нужно сделать несколько уточнений. Прежде всего, критерий
демаркации направлен не только на то, чтобы показать особые черты научного знания,
которые отличают науку от ненауки. В идеале, данный критерий должен показать, является
ли определенная теория научной или же ее нельзя признать таковой. Для этого критерий
демаркации должен быть дискретным, то есть давать возможность однозначно отнести ту
или иную теорию к науке/ненауке, а также он должен сделать из процесса анализа теории на
степень ее научности алгоритмически разрешимую процедуру. Именно таким представляли
себе критерий демаркации логические позитивисты, однако в ходе исследований оказалось,
что демаркационная граница является достаточно нечеткой и исторически изменчивой.
Второе уточнение связано с вопросом о том, теории в какой области научного знания
можно подвергнуть проверке на соответствие критерию научности. Карл Поппер указывал,
что демаркационную линию можно проводить только в отношении естественных наук,
опирающихся на эмпирический базис. Следовательно, остальные области научного знания,
например, формальные науки, такие, как логика и математика, под этот критерий
принципиальное не подпадают. Также достаточно спорным является и вопрос о том,
возможно ли применение критерия демаркации к социальным и гуманитарным наукам. В то
же время известно, что сам Поппер применял критерий демаркации к психоанализу и
марксистской теории с неутешительными выводами для них.
Необходимо также определить, от чего именно должна быть отделена наука
демаркационной границей. Критерий демаркации разграничивает, с одной стороны, науку и
другие формы освоения реальности, такие как миф и религия. С другой стороны, критерий
демаркации должен отделить науку от псевдо-науки, то есть однозначно показать, является
ли определенная теория действительно научной или только «мимикрирует» под науку. В
этом случае критерий демаркации становится оружием борьбы с различного рода
«научными фриками».
49
Верифицируемость как критерий демаркации
Один из первых критериев демаркации был предложен логическими позитивистами
(или неопозтивистами). Радикальный эмпиризм неопозитивистов предполагал, что всякое
научное, обладающее смыслом суждение можно редуцировать к совокупности так
«протокольных предложений». Протокольные предложения фиксируют данные опыта,
который и является основой любого знания. Поскольку протокольные предложения
фиксируют «чистый опыт», сами они в проверке не нуждаются.
Научность и осмысленность всех прочих суждений проверяется тем, что они
редуцируются к протокольным предложениям. Таким образом, предложение научно и
осмысленно только в том случае, если оно верифицируемо, то есть опирается на
эмпирические данные. Протокольные предложения являются основой для верификации всех
других предложений.
Согласно критерию верифицируетмости, если какое-либо суждение невозможно
редуцировать к данным опыта, то оно не только является ненаучным, но также
бессмысленным. Соответственно, основной принципа верифицируемости является
экстенсиональная логика, которая определяет для суждений совокупность эмпирически
наблюдаемых референтов. С этой точки зрения неверифицируемые суждения не только
эпистемологически, но и лингвистически бессмысленны.
Получается, что, с точки зрения неопозитивистского критерия демаркации, суждения
математики и логики будут бессмысленными, поскольку они не требуют редукции к
эмпирическим данным. Неопозитивистам пришлось признать математику и логику
необходимым инструментом для построения научных суждений, которые могли бы
выдержать проверку на верифицируемость.
Принцип верифицируемости в качестве критерия демаркации подвергался критике
прежде всего за то, что он утверждает научность только такого знания, которое подлежит
полной эмпирической проверки. В то же время, как показал К. Поппер, такая проверка не
возможна, поскольку даже большое число подтверждающих фактов, которые получены с
помощью индукции, делает суждение лишь вероятностно обоснованным.
Фальсифициуемость как критерий демаркации
В качестве альтернативы принципу верифицируемости в качестве критерия демаркации
Поппер предложил принцип фальсифицируемости. Поппер противопоставляет теорию
эмпирическим предложениям, теория выражается с помощью общих утверждений типа «Все
лебеди белые». Утверждения такого типа эквивалентны отрицательным экзистенциальным
утверждениям, например «Неверно, что существует небелый лебедь». Таким образом, любая
теория не только устанавливает определенные факты, но также запрещает существование
других фактов.
Этот запрет и является основной фальсифицируемости теории. Факты, «запрещенные»
определенной теорией, являются ее потенциальными фальсификаторами. Теория признается
научной в том случае, если она содержит в себе такие фальсификаторы. Их наличие говорит
о том, что теоретическая система способна столкнуться с эмпирическими фактами, которые
будут ей противоречить, а значит, она не выходит за пределы эмпирической науки.
Соответствие критерию фальсифицируемости делает какую-либо теорию научной, но не
делает ее истинной. Если эмпирические данные фальсифицируют научную теорию, она
становится ложной, но не перестает от этого быть научной. Сфальсифицированная теория,
согласно Попперу, должна быть отброшена, поскольку была обнаружена ее ложность.
Развитие научного знания возможно только в том случае, если отказаться от сохранения
сфальсифицированных теорий.
Утонченный фальсификационизм И. Лакатоса
Опираясь на фальсификационизм Поппера, И. Лакатос разработал концепцию развития
научного знания и связанный с ней критерий демаркации. Представление о том, что в
процессе научного исследования ложные теории немедленно отбрасываются И. Лакатос
50
считал «наивным». Реальное развитие науки предполагает не просто опровержение какойлибо теории и замену ее новой, но создание ряда последовательных теорий, каждая
последующая из которых должна быть лучше предыдущей.
Таким образом, согласно утонченному фальсификационизму, теория признается
научной в том случае, когда она не просто может быть опровергнута опытом, но также
может быть заменена новой теорией которая объясняла бы то, что не может объяснить
предыдущая. Таким образом, для определенной теории очерчивается область применимости.
Научной может считаться только такая теория, которая не выходит за пределы этой области.
Поэтому любая «общая теория всего» будет заведомо научно несостоятельна с точки зрения
данного критерия демаркации.
Из истории науки известны примеры того, как сужалась область применимости той или
иной теории. Например, область применимости ньютоновской физики была сужена после
того, как появились СТО и ОТО. Теория относительности объясняла то, что ньютоновская
модель объяснить не могла. В то же время, появление теории относительности не привело к
полному отказу от использования многих составляющих ньютоновской системы.
Признаки лженаучной теории
Можно привести несколько примеров лженаучных концепций, которые не
выдерживают критической проверки. К числу таких концепция относятся телегония, теория
торсионных полей, некорректное применение синергетических моделей (которое иногда
называют «псевдосинергетикой») и т.п. Некоторые псевдонаучные концепции достаточно
удачно мимикрируют под науку, что делает затруднительным их анализ даже для
профессиональных ученых.
Тем не менее, основываясь на выработанных критериях демаркации, можно составить
свод некоторых практических принципов, руководствуясь которыми можно определить,
относится ли какая-либо концепция к лженаучной или нет. Прежде всего, лженаучные
теории не самосогласованы, а также противоречат ранее установленным закономерностям и
фактам. Как правило, такие теории игнорируют тот уровень знаний, который уже достигнут
в определенной области.
Лженаучная теория нарушает границы применимости, она претендует на объяснение и
предсказание фактов в тех областях, для применения в которых данная концепция
изначально не предназначена. Специалисты, которые предлагают теории такого рода,
зачастую являются признанными учеными в определенной области, но при это стремятся
выйти за пределы своей компетенции. Чаще всего, лженаучная концепция претендует на
фундаментальность, то есть, она должна опровергнуть и пересмотреть все существующее
знание в определенной области. В данном случае также нарушается принцип применимости
теории в строго определенной области. Лженаучная теория, как правило, содержит в себе
запрет на собственное опровержение, поэтому она не выдерживает проверку с помощью
критерия фальсифицируемости.
Движущие факторы развития науки и рост научного знания
Рост знания в науке вообще и в социальных науках в частности представляет собой не
простое накопление эмпирических наблюдений, а процесс развития концепций,
включающий формирование их понятийно-аксиоматического ядра.
Концепциями в данном случае называются логически упорядоченные системы
представлений, прослеживающие достаточно длинные цепи причинно-следственных связей
между исследуемыми явлениями. Будучи концептуально организованным, фундаментальное
научное знание по своей природе является не столько количественным, сколько
качественным, поскольку количественные данные могут служить составными элементами
или даже «опорой» концептуальных систем, но не могут образовывать их логический каркас.
51
Формирование логически упорядоченных концепций происходит в более широком
контексте, который мы здесь назовем «качественным» знанием. Под таким знанием
понимается вся совокупность представлений ученого, касающихся исследуемых им проблем.
В отличие от концепций, которые представляют собой более или менее завершенные
логические конструкции, качественное знание включает в себя также большое число
недоработанных и не до конца отрефлексированных представлений, не находящихся в
логическом единстве друг с другом.
Процесс развертывания концепции порождает проблемы сохранения логической
совместимости ее составных частей, согласованности с другими концепциями и с
наблюдаемыми эмпирическими явлениями. Накопление противоречий (как логических, так
и эмпирических) с течением времени должно повлечь за собой ответную реакцию в виде: а)
приспособления концепции путем изменения частных ее элементов; б) трансформации
концептуального «ядра», влекущей за собой крупные изменения в ее составных частях; в)
радикальной замены концепции.
Таким образом, прогресс научного знания представляет собой не экстенсивное
накопление изученных «фактов», а постоянное обновление концептуальных представлений.
Эффективность развития науки определяется, таким образом, скоростью возникновения и
внедрения в научное сознание "концептуальных инноваций" в условиях их жесткой
селекции посредством критики.
Движущие факторы науки: интернализм и экстернализм
В 20 веке в философии и истории науки сложились две концепции движущих факторов
развития науки, которые получили названия «интернализм» и «экстернализм». С точки
зрения интернализма решающее значение в развитии науки имеют только внутринаучные
(или, чуть шире, внутритеоретические) факторы. Лидером и наиболее полным выразителем
этой концепции был А. Койре. Он, как и его сторонники, исходил из того, что теоретический
мир полностью автономен, и потому история науки есть ни что иное, как движение идей,
понятий, теорий, подчиняющихся внутренней логике развития. Эта позиция, несмотря на
крайнюю идеалистичность ее основных посылок, имеет свои несомненные плюсы. Здесь
наука рассматривается в общем контексте «мутации» человеческого интеллекта. Эти
«мутации» мыслятся как скачкообразный процесс, ибо речь идет о радикальной смене
философских идей и концепций. Так, сущность научной революции Нового времени Койре
видел в разрушении античной идеи конечного и иерархически упорядоченного Космоса и
замене ее представлениями о бесконечной и гомогенной Вселенной, где все вещи
принадлежат одному и тому же онтологическому уровню и управляются универсальными
физическими законами3. Огромной заслугой представителей интернализма является то, что
они привлекли внимание к логико-теоретическим проблемам анализа развития науки.
Недостатки же этого подхода кроются в его исходной посылке о человеке как субъекте
познания, который представлялся интерналистам полностью автономной «духовной
субстанцией», детерминированной лишь внутренними законами своего разума. Разумеется,
интернализм фиксирует существование внешних факторов, таких как экономика, социальная
и культурная среда. Они могут либо мешать, либо благоприятствовать развитию науки,
однако не могут, по мнению интерналистов, оказывать никакого воздействия на внутреннюю
структуру научного знания.
Альтернативный подход в понимании движущих сил развития науки – экстернализм –
исходит из признания ведущей роли внешних по отношению к науке факторов, в первую
очередь, социально-экономических. Поворотным пунктом здесь стало выступление Б. М.
Гессена с докладом о социально-экономических корнях механики Ньютона на
Международном конгрессе истории науки и техники (Лондон, 1931 г.). Выступления Гессена
и его советских коллег оказали глубокое влияние на историческую науку, в результате чего
3
Койре А. Очерки истории философской мысли. – М., 1985, с. 130 - 131
52
возникла новая школа, обосновавшая важность социальной истории науки. В рамках
экстерналистского подхода было детально проработано влияние социально-экономических и
историко-культурных факторов на развитие науки. Однако этот подход был слишком
прямолинейным: такие элементы науки, как гипотезы, темы, методы и пр. выводились
непосредственно из экономических причин.
На сегодняшний день оба этих подхода в чистом виде оказываются несостоятельными
и уязвимыми. История науки преодолевает оппозицию «интернализм - экстернализм»,
настаивая на понимании науки как специфической деятельности по получению,
обоснованию и проверке знания, и одновременно признавая тот факт, что идеи, понятийный
аппарат и мировоззренческие предпосылки знания являются укорененными в культуре
общества. Современное исследование социокультурной обусловленности научного знания
ушло от жесткого экономического детерминизма, свойственного Гессену и другим
сторонникам диалектического материализма марксистского толка.
Рост научного знания: кумулятивизм и его критика
Вторая проблема - проблема роста научного знания – также является одной из
актуальных и широко обсуждаемых тем философии и истории науки. Дебаты по этому
вопросу вылились в противопоставление кумулятивных и некумулятивных концепций.
Кумулятивная концепция является исторически более «старым» взглядом на рост научного
знания и согласуется с теми представлениями о природе науки, которые оформились в эпохи
Нового времени и Просвещения. Иными словами, эта концепция может претендовать на
звание «классической». Ее суть состоит в том, что знания о реальных свойствах, отношениях
и процессах природы или общества, однажды приобретенные наукой, накапливаются, или
кумулируются, образуя своего рода постоянно растущий фонд. Кумулятивная концепция
опирается на следующие методологические принципы:
1) Существуют неизменные, раз и навсегда установленные истины, которые
накапливаются в ходе развития человечества.
2) Заблуждения не являются элементом научного знания и не представляют ни
малейшего интереса для его истории и методологии.
3) Наука жестко отделена от ненаучных форм знания, в том числе и от философии.
4) Весь накопленный историей науки запас знаний остается без изменений; ничто не
отбрасывается, прообраз и истоки нового можно всегда найти в старом знании.
Одним из первых подобный взгляд на природу знания выразил еще средневековый
схоласт XII века Бернард Шартрский в своем известном афоризме: «Мы подобны карликам,
сидящим на плечах гигантов. Мы видим больше вещей и вещи более удаленные, по
сравнению с тем, что видели древние. Но не благодаря остроте нашего зрения или нашему
высокому росту, а потому что древние поднимают нас до своей огромной высоты». Этим
Бернард обосновывал необходимость знакомства с авторитетами классической древности.
Французский математик Анри Пуанкаре (1854 – 1912 гг.) отмечал, что наука подобна
монументальному сооружению, «строить которое нужно века, и где каждый должен
принести камень». Таким образом, кумулятивность человеческих знаний – это давно
подмеченный и широко известный факт.
Однако кумулятивность как объективное свойство научного знания, взятая сама по
себе, не в состоянии объяснить многие моменты в эволюции науки. Во второй половине 20
века кумулятивизм как стандартная концепция развития научного знания был подвергнут
критике на том основании, что история науки знает немало примеров не только накопления,
но и отбрасывания, критического преодоления идей, гипотез, теорий и методов. Этот
процесс «выбраковывания» свойственен всей истории науки и выражает некие
фундаментальные свойства ее природы. Классическим примером кризиса кумулятивистской
модели науки является возникшая в начале 20 века проблема обоснования положений
математики.
53
Согласно классическим канонам научной рациональности, математика мыслилась как
идеал строго доказанного и неопровержимого научного знания. Однако многие
математические положения и понятия оказались отнюдь не такими самоочевидными и
прозрачными, какими их желали видеть сторонники классической кумулятивистской
эпистемологии. Так, например, никто толком не может сказать, что такое «бесконечно малая
величина», хотя анализ таких величин блестяще оправдал себя в практике вычислений.
Более того, оказалось, что трудно определить сам предмет математики, указать, чем именно
она занимается и чем должна заниматься. Старое традиционное определение математики как
науки о количестве было признано неудовлетворительным. Чарльз С. Пирс определил
математику как «науку, которая выводит необходимые заключения»; Гамильтон и Морган как «науку о чистом пространстве и времени»; Бертран Рассел дал свою парадоксальную
характеристику математике, сказав, что это «доктрина, в которой мы никогда не знаем ни
того, о чем говорим, ни верно ли то, что мы говорим».
Долгое время считалось, что математика исходит из неких абсолютно истинных
самоочевидных положений, которые называются аксиомами и которые основаны на ясных и
интуитивно очевидных определениях. Все истины математики и геометрии могут быть
выведены посредством одного только разума из небольшого числа таких аксиом. Например,
утверждений, что к любой кривой можно провести касательную, или что часть меньше
целого. Однако подобные положения оказываются всего лишь результатом нашей привычки
и коренятся не в абсолютных законах разума, а в нерефлексируемой самопонятности
повседневного опыта. Сама математика способна опровергать эти «интуитивные
очевидности». Так, математик Карл Вейерштрасс дал уравнение такой кривой, по
отношению к которой невозможно провести касательную. Наглядно мы не можем
представить себе такую кривую, но теоретически, чисто логическим путем, можно
исследовать ее свойства. Отношения части и целого также казались математической
аксиомой. Но Г. Кантор показал, что в случае бесконечного множества это положение не
работает. Например: 1234567... - натуральный ряд чисел, а 1 4 9 16 25 36 49... - ряд квадратов
этих чисел. Оказалось, что квадратов чисел в бесконечном ряду столько же, сколько и
натуральных чисел, так как под каждым натуральным числом можно подписать его
квадратную степень, или каждое натуральное число можно возвести в квадрат. Поэтому
Кантор определил бесконечное множество, как имеющее части, содержащие столько же
членов, сколько и все множество.
Открытие неэвклидовых геометрий показало, что аксиоматический метод, в том виде, в
каком он был представлен у Эвклида, не может рассматриваться как сердцевина математики.
Для Евклида значение используемых им терминов было само собой разумеющимся. Точку
он определял как то, что не имеет частей или как то, что не имеет размера. Линию – как то,
что имеет только длину, а поверхность – как то, что имеет только длину и ширину.
Предполагалось, что каждый понимает, что значат эти термины. Аналогичным образом
предполагалось, что каждый знает, что значат предложения, выражающие базовые истины,
то есть содержание геометрии является интуитивно ясным. Неэвклидовы геометрии
демонстрируют, что постулаты Евклида независимы друг от друга и представляют собой тот
минимум, который невозможно сократить. Под вопросом находился постулат о
параллельных прямых. В конце концов, было продемонстрировано, что можно создать
внутренне непротиворечивую геометрию, отвергающую этот постулат, но принимающую
все остальные.
Неэвклидовы геометрии породили кризис в понимании аксиоматического метода и,
следовательно, того, о чем говорит сама математика. Возникла проблема, как могут
неэвклидовы геометрии разделять постулаты Евклида (кроме постулата о параллельных
прямых), если понятия, в них используемые, не одни и те же. Например, в геометрии,
имеющей дело со сферической поверхностью, «линия» означает большой круг, а в случае с
седловидной поверхностью под «линией» понимают «геодезическую линию». Совершенно
очевидно, что Евклид не вкладывал в эти понятия такого смысла.
54
Известный математик Д. Гильберт, признав, что даже математическое мышление
способно давать осечку и приводить к нелепостям, стал искать окончательное обоснование
математики в чувственной наглядности. Но оказалось, что и она не способна служить
абсолютным гарантом непогрешимости математических выводов. Проект окончательного
обоснования математики путем сведения ее положений к логике также провалился, когда
австрийский математик и логик Курт Гѐдель (1906 – 1978 гг.) показал его невыполнимость.
В 1931 г. Гѐдель доказал, что в каждой достаточно богатой средствами выражения
формализованной системе имеются содержательные истинные утверждения, которые не
могут быть доказаны средствами самой этой системы. Это значит, что полная формализация
арифметики принципиально неосуществима, что «понятия и принципы всей математики не
могут быть полностью выражены никакой формальной системой, как бы мощна она ни
была». То есть, в математике плодотворное рассуждение возможно только при условии
введения предпосылок, несводимых к логике.
Однако это не означает, что научное знание вообще, и математика в частности,
являются несостоятельными. Это лишь указывает на неправомерность и ограниченность
некоторых классических методологических предпосылок. Во второй половине 20 века
появилось множество некумулятивных моделей развития науки, наиболее радикальными из
которых стали модели физика и историка науки Томаса Сэмюэла Куна (1922 – 1996 гг.) и
философа и методолога науки Пола Карла Фейерабенда (1924 – 1994 гг.). Кун и Фейерабенд
сформулировали тезис о «несоизмеримости теорий». Суть его в том, что каждая новая
фундаментальная теория объясняет один и тот же эмпирический материал, исходя из
различных онтологических оснований, и имеет принципиально иной понятийный аппарат.
Даже если используются одни и те же термины, они могут получать различное содержание.
Например, «масса» в теории относительности Эйнштейна понимается не так, как в
классической механике Ньютона. Канадский философ науки Ян Хакинг (р. 1936)
рассматривает три вида несовместимостей:
1)
Несовместимость вопросов, или тем, то есть несовпадение областей
исследования сравниваемых теорий.
2)
Непонимание различных стилей рассуждения ученых разных эпох или школ.
3)
Несоизмеримость смысла, то есть значений терминов, которые обозначают
теоретические, ненаблюдаемые объекты.
Признаки хорошей теории
Т. Кун выделяет следующие стандартные критерии оценки «добротной теории»:
- точность (следствия теории должны обнаруживать согласие с данными наблюдений
и экспериментов)
- непротиворечивость (речь идет не только о внутренней когерентности, но и о
согласованности этой теории с другими принятыми теориями)
- широкая область применения (следствия теории должны распространяться далеко за
пределы частных наблюдений и законов, на объяснения которых она первоначально была
ориентирована)
- простота (теория должна вносить порядок, структурировать явления)
- плодотворность (теория должна открывать новые горизонты исследования).
Многие исследователи настаивают, что когнитивные ценности, по которым мы
оцениваем теории, должны быть отделены от других видов ценностей (индивидуальных,
нравственных, социальных, эстетических и пр.). Если первые, безусловно, играют
существенную роль в научном процессе как результат учета состояния теории, то вторые
должны быть индифферентны по отношению к науке 4. Но, как показывает Кун, перед теми,
кто пользуется этими критериями, встают серьезные проблемы. Во-первых, используемые
4
Лейси Х. Свободна ли наука от ценностей? — М., 2001, с. 56 - 57
55
все вместе, эти критерии могут входить в конфликт друг с другом. Во-вторых, каждый
критерий сам по себе смутен и исследователи, применяя их в конкретных случаях, могут
прийти к различным оценкам.
Например, критерий точности. Он наиболее всего годится в качестве иллюстрации, т.к.
более других может претендовать на роль решающего критерия, поскольку именно от
точности теории зависят ее объяснительная и предсказательная функции. Но коперниковская
система отнюдь не была точнее птолемеевской, пока не была пересмотрена Кеплером.
Вполне можно предположить, что, если бы Кеплер не заинтересовался системой Коперника
(то есть не выбрал бы ее), то она была бы забыта, по крайней мере, на какое-то время.
Трудности в применении стандартных критериев выбора типичны для всех
исторических периодов развития науки. Так что если встает проблема выбора между двумя
альтернативными теориями, то два исследователя, следующие одному и тому же набору
критериев, могут прийти к различным заключениям5. Можно по-разному интерпретировать
простоту или определять границы знания, в которых теория должна быть непротиворечивой.
Таким образом, хотя каноны научности существуют и могут быть выявлены, их
недостаточно, чтобы детерминировать решения отдельных ученых.
С критериями, которые влияют на решения, но не определяют их, мы встречаемся
постоянно. Но обычно эти критерии определяются не как «критерии», а как максимы, нормы
и ценности. Например, в процессе воспитания мы приобщаемся к следующим максимам:
«семь раз отмерь — один раз отрежь» и «не откладывай на завтра то, что можно сделать
сегодня». Совершенно очевидно, что эти максимы конфликтуют между собой, однако это не
вызывает паники и не дает основания говорить, что индивид, усвоивший их, получил плохое
/ неправильное воспитание. И также очевидно, что эти максимы, при их привлечении,
меняют механизмы и природу процесса принятия решения, и, следовательно, его результат.
Т. Кун считает, что критерии выбора «добротной теории» (точность,
непротиворечивость, плодотворность и пр.) функционируют не как правила, а именно как
ценности, влияющие на выбор. Такой подход позволяет объяснить те аспекты научного
поведения, которые традиционно рассматривались как аномальные или иррациональные.
Формы и методы научного познания
Как уже говорилось, научное исследование представляет собой специфический вид
деятельности по производству новых, надежно обоснованных знаний. Они располагают
специфическими методами, средствами и критериями познания, главными из которых
выступают систематичность и методичность. В науке применяются, во-первых, методы
поиска нового знания, открытия новых истин, которые опираются не столько на правила,
сколько на воображение и интуицию. Во-вторых, используются методы построения,
систематизации, обоснования знания. Наиболее развитой формой систематизации знаний
является научная теория. Она дает целостное отображение определенного фрагмента
действительности.
Метод познания – это специфические процедуры, состоящие из последовательности
определенных действий или операций, применение которых приводит либо к достижению
поставленной цели, либо приближает к ней. Все эти методы изучаются в рамках
философской дисциплины, которая называется методологией науки. Один из характерных
признаков современной науки – возрастание роли методологии. Можно указать на ряд
причин, порождающих эту особенность:
- сложность структуры теоретического и эмпирического знания, способны его
обоснования и проверки
5
Кун Т. Объективность, ценностные суждения и выбор теории. // Современная философия науки. — М., 1996,
с. 65
56
- тесное переплетение описания свойств материальных объектов с искусственно
вводимыми абстракциями, идеальными моделями
- сопряжение результатов предметно-орудийного эксперимента с выводами и
следствиями «мысленного эксперимента».
Следует разделять общенаучную и конкретно-научную методологию. Во втором случае
мы имеем дело с набором конкретных методик, сопряженных с техническими приемами,
свойственными для данной научной области. Общенаучная методология представляет собой
учение о принципах, методах и формах знания, функционирующих во многих науках. К
формам знания относят понятийный аппарат, законы, теории и гипотезы, фактуальное
знание.
Методы познания можно классифицировать по нескольким основаниям: 1) по уровням
(эмпирические и теоретические); 2) по точности предсказания (детерминистские и
статистические); 3) по функциям в познании (систематизация, объяснение и предсказание); 4)
по конкретным областям исследования (физические, биологические, социальные).
Если речь идет о существовании определенного фиксированного порядка действий или
операций для решения задач практического или теоретического характера, то подобные
методы определяют как алгоритмы, т. к. они допускают однозначное решение задач
типового характера. Чаще всего с алгоритмами имеют дело в математике, но не все
математические задачи допускают алгоритмическое решение.
Алгоритм – это точное предписание, определяющее вычислительный процесс, идущий
от варьируемых исходных данных к искомому результату. Все это не математическое
определение, а, скорее, описание алгоритма.
Научное исследование представляет собой наиболее развитую форму рациональной
деятельности, которая, однако, не может осуществляться по каким-то фиксированным
правилам. Исследование предполагает творчество, опирающееся на воображение и
интуицию. Поэтому выделяют эвристические методы познания, такие как метафоризация
или рассуждение по аналогии.
В науке значительную роль играет принцип экономии мышления, задача которого –
минимизировать интеллектуальные усилия. Наиболее известное средство минимизации
исходных посылок – аксиоматический метод, впервые использованный Евклидом. Все
теоремы здесь доказываются исходя из небольшого количества аксиом, т. е. утверждений,
принимаемых без логических доказательств. Аксиоматический метод все же служит
способом построения уже готового знания, а не поиска нового знания.
Эмпирические методы, это методы вычленения и исследования эмпирического объекта.
Однако не всегда оказывается возможным прямое экспериментальное исследование (здесь
проблема может иметь и экономической аспект). Тогда прибегают к модельному
эксперименту, в котором исследованию подвергается не сам объект, а замещающая его
модель. Модели могут быть как материальными, так и мысленными, главное – чтобы они
находились с оригиналом в отношениях как можно большего сходства. В таком
эксперименте увеличивается роль теоретического компонента, поскольку необходимо
обосновать отношение подобия между моделью и оригиналом, и тем самым обосновать
правомерность экстраполяции полученных данных. Метод экстраполяции является лишь
частично самостоятельной и входит в состав других методов (индукция, аналогия,
математическая гипотеза и пр.). Но следует учитывать, что метод экстраполяции дает лишь
вероятностное знание.
Такие методы, как анализ, синтез, индукция, дедукция, аналогия, систематизация,
классификация и пр., являются методами обработки знаний. Что касается методов
теоретического уровня, то тут следует выделить методы построения идеализированного
объекта. К таковым будут относиться абстрагирование, идеализация, формализация,
мысленный эксперимент, математическое моделирование и др.
Абстрагирование, по сути, означает отвлечение от свойств и отношений,
незначительных для данного исследования. Поэтому абстрагирование возможно только при
57
наличии некоторого эмпирического базиса. Отвлекаясь от эмпирических данных, получаем
абстракции первого порядка, каждый последующий шаг будет порождать абстракции более
высокого уровня. Возникает своеобразная шкала абстракций, но она не абсолютна, так как
при смене исследовательских задач всегда может быть заменена другой. Абстрагирование от
индивидуализирующих свойств, позволяющее объединять предметы в классы, называется
«абстракцией отождествления».
Идеализация – это метод, основанный на абстрагировании, но предполагающий также и
мысленное конструирование объектов с предельным выражением некоторого свойства или
состояния. Например, «абсолютно черное тело», «несжимаемая жидкость» и пр. Такое
конструирование идеализированных объектов и носит название «мысленного
эксперимента».
Формализация – это одно из важнейших средств построения и исследования
идеализированного объекта. Под формализацией понимают репрезентацию содержания и
структуры объектов в некоторой знаковой форме при помощи различных искусственных
языков.
К теоретическим относятся также и методы построения и оправдания теоретического
знания. К ним относятся гипотетико-дедуктивный, конструктивно-генетический,
исторический, логический методы, верификация, фальсификация, математическое
доказательство.
Научное и обыденное познание
Научное знание не существует в гносеологическом вакууме, поскольку оно
взаимосвязано с другим типом знания — обыденным или повседневным знанием. Эта
взаимосвязь зачастую рассматривалась с точки зрения
преодоления повседневных
познавательных практик в рамках научного дискурса. В этом случае повседневный,
обыденный тип знания и научное знание рассматривались как некие антиподы, и
абсолютный приоритет отдавался научному знанию. Однако в вопросе о соотношении
обыденного и научного знания нельзя забывать об их связи и преемственности.
Связь заключается в том, что они имеют общую цель – дать объективно верное
знание о действительности. Это называется принципом реализма. В обыденном сознании
принцип реализма ассоциируется со здравым смыслом. На основе здравого смысла
реальность повседневной жизни определенным образом упорядочивается. Она
систематизируется таким образом, что кажется независимой от индивидуальных
субъективных представлений. Каждый индивид попадает в повседневную реальность уже
определенным образом систематизированного опыта. Понятие «здравого смысла» меняется
со временем. Рассуждение в рамках здравого смысла опирается на те же законы логики,
которые обеспечивают последовательный и непротиворечивый характер мышления. Но в
обыденном мышлении эти законы не всегда ясно осознаются и не всегда точно
формулируются. Именно это обстоятельство служит источником логических ошибок. Тем
не менее, именно обыденное знание формирует исходные исследовательские ориентиры.
Так, Альберт Эйнштейн утверждал, что «наука есть не что иное, как совершенствование
повседневного мышления». Данное суждение Эйнштейна может быть интерпретировано как
последовательность двух утверждений. Первое: повседневное мышление является исходной
основной научной деятельности, наука появляется в рамках повседневного мышления.
Второе: повседневное мышление нуждается в усовершенствовании, что и становится
причиной возникновения науки. Согласно Эйнштейну, два этих утверждения не
противоречат друг другу, напротив, они более полно раскрывают природу взаимосвязи
научного и обыденного знания.
Научное знание, таким образом, не только возникает из повседневности, но и
проверяется зачастую на уровне повседневных практик. Сама исходная проблематика науки
58
вырастает из необходимости каким-то образом упорядочить повседневную деятельность и
дать непротиворечивую интерпретацию обыденному опыту.
Таким образом, рациональное знание, которое рассматривается как прерогатива
науки, также имеет корни в повседневном опыте. Бернхард Вальденфельс называет
повседневность «плавильным тиглем рациональности».
Он указывает на то, что
рациональность, как и здравый смысл, — изменчивые категории. Уже на уровне обыденного
опыта появляется одна из основных характеристик познавательной деятельности —
принципиальная ее гибкость и открытость. Познание не следует строгому сценарию, это
всегда переплетение многообразных форм опыта: «широкому и изменчивому пониманию
рациональности соответствует речь о логике чувств и красок, о порядке вещей или о
многообразии действительностей". Открытость и гибкость познания проистекает именно из
того, что обыденный опыт не скован жесткими нормативами. Вальденфельс называет
повседневную жизнь лабиринтом, "который не был спланирован какой-либо центральной
инстанцией и не был создан по какому-либо образцу"6.
Принципы обыденного мышления отличаются от научного, но, в то же время, имеют
с ним ряд общих черт. Прежде всего, обыденное мышление, как и научное, отличается
определенной логической последовательностью. Тем не менее, в повседневной
познавательной деятельности логические законы применяются, скорее, интуитивно, в то
время как в рамках научного дискурса логические правила применяются осознанно. Это
позволяет выявлять ошибки в рассуждениях, которые в повседневной познавательной
деятельности зачастую остаются незамеченными.
Обыденное познание носит стихийно-эмпирический характер, который, тем не
менее, позволяет производить предметное и во многих аспектах объективное знание о мире.
В то же время, в обыденном познании не используется систематическая эмпирическая
проверка. Проверка знания носит, скорее, фрагментарно-практический характер. Обыденное
познание отличается отсутствием какой-либо теоретической систематичности, что зачастую
делает его внутренне противоречивым.
Подобный
характер
обыденного
познания
и
делает
необходимым
усовершенствование
повседневной
познавательной
деятельности.
Такое
усовершенствование, достигающееся посредством научного мышления, дает возможность
преодолеть фрагментарность обыденного опыта, которая мешает создать непротиворечивую
и достаточно полную систему знания. Такая система знания позволяет исследовать те
процессы и явления, которые лежат за пределами непосредственного повседневного опыта.
В то же время, научное знание позволяет взглянуть и на сами повседневные явления под
новым углом зрения, увидеть сложные процессы, лежащие за ними.
Одним из важных аспектов взаимосвязи научного и обыденного мышления является
популяризация научного знания. Для того, чтобы популяризация научного знания была
успешной, должны соблюдаться определенные условия. К числу таких условий относятся
интерпретация научных фактов с помощью сопоставления этих фактов с материалом
обыденного опыта, конкретизация научного материала, использование прозрачные метафор,
апелляция к эстетическому опыту тех, для кого предназначена популярная наука.
Научно-популярное издание также должно соответствовать следующим критериям:
в нем должны освещаться научные открытия, которые отражают современное состояние
науки, в подобном издании следует демонстрировать сам процесс научного открытия и
отображать условия, в которых оно было сделано, изложение материала должно быть ясным,
а выводы — определенными.
Популяризированное научное знание постепенно встраивается в контекст
обыденного мышления. Его усвоение способствует повышению компетентности участников
повседневных практик.
6
Вальденфельс Б. Повседневность как плавильный тигль рациональности // Социо-логос: пер. с англ.,
нем., фр.- М.: Прогресс, 1991.-С. 39-50., С. 45
59
При рассмотрении общих черт обыденного и научного познания следует обратиться
к такой операции мышления, как абдукция.
Абдукция (от латинского слова abducere – отводить) – это рассуждение, которое
осуществляется на основе информации, описывающей определенные факты, и приводящее к
гипотезе, наилучшим образом объясняющей их. Абдукция обладает чисто формальным
сходством с индукцией. В индукции заключение делается на основе обобщения фактов. В то
же время индукция просто перечисляет факты, обладающие некоторым общим признаком,
но не объясняет их. Каноны индукции, разработанные Ф. Бэконом, опираются на
исключение гипотез, оказавшихся несостоятельными при сопоставлении с реальными
фактами. Здесь ложность гипотезы определяется по ложности всех ее следствий, в логике
такая процедура носит название modus tollens. Разница между абдукцией и индукцией
состоит в том, как к самим гипотезам приходят, т. е. с чего начинается рациональная
процедура их поиска.
Абдуктивные умозаключения используются в обыденном сознании для обобщения
различных данных. Американский философ Чарльз Сандерс Пирс предложил выделять три
процедуры принятия гипотез: индукцию, дедукцию и абдукцию. Пирс считал, что принцип
абдукции выходит за рамки исключительно принятия той или иной гипотезы. Он указывал
на то, что абдукция является одной из базовых процедур нахождения научного знания,
научной аргументации, а также способствует развитию творческих способностей. Всякий
раз, когда человек объясняет какие-то факты, он неосознанно прибегает к абдукции. Но с
точки зрения формальной дедуктивной логики абдуктивные умозаключения, идущие от
следствий к основаниям, являются несостоятельными, так как логически верным будет лишь
умозаключение от основания к следствию. Поскольку в абдуктивном рассуждении
заключение основывается лишь на истинности следствий, поэтому оно является не
достоверным, а только правдоподобным или вероятностным. Но только абдукция является
единственной логической операцией, способной вводить новые идеи и, в результате,
приводить к новому знанию. Гипотетико-дедуктивный метод является лишь инструментом
обоснования уже готового знания. С его помощью можно выводить следствия из гипотез и
некоторые из них проверять с помощью фактов. Однако дедукция не объясняет то, как
приходят к этим гипотезам, в какой мере они инициированы фактами и объясняют ли их.
Индукция – это также операция, предполагающая количественную оценку заранее
выдвинутых утверждений, то есть это логическая операция подтверждения гипотезы.
Абдуктивные рассуждения используются во всех случаях, когда приходится прибегать
к гипотезам. Так поступает, к примеру, врач, когда ставит диагноз по симптомам. Симптомы
– это взаимосвязанная система фактов. Врач пытается дать им объяснение с помощью
диагноза предполагаемой болезни. Абдуктивный характер имеют также умозаключения
детектива. Следы криминального действия позволяют выдвинуть различные версии о
характере и участниках преступления. Из альтернативных версий выдвигается одна, которая
наилучшим образом объясняет все имеющиеся факты. Самый известный пример – персонаж
Конан-Дойля Шерлок Хомс. Хоть он и называл свой метод «дедуктивным», по сути – это
чистая абдукция. Дедукция играла лишь вспомогательную роль при выводе следствий из
версии.
Использование абдукции в науке носит более сложный характер: 1) в качестве посылки
для заключения могут выступать как эмпирические факты, так и основанные на них
обобщения и эмпирические гипотезы; 2) уровень объяснения фактов возрастает по мере
перехода от эмпирических гипотез к теоретическим.
Умозаключение от эмпирических фактов к объяснительной гипотезе можно назвать
абдукцией первого типа. Абдукции первого типа, когда они получают статус эмпирических
законов, порождают абдукции второго типа, которые дают теоретическое объяснение
эмпирическим законам, а чрез них – фактам.
60
Итак, если дедукция служит для вывода следствий из гипотезы, а индукция способна
гипотезу верифицировать или фальсифицировать, то абдукция выступает как средство
построения и модификации самой гипотезы.
Общая схема абдукции такова:
1.Есть совокупность данных, наблюдений, свидетельств.
2. гипотеза будет объяснять эту совокупность, если окажется истинной.
3.Никакая другая гипотеза не может предложить лучшего объяснения.
Вывод: данная гипотеза вероятна, истинна или правдоподобна.
Такая схема позволяет сравнивать альтернативные гипотезы по их объяснительной
силе, а не по степени их подтвержденности.
Гипотетический характер абдукции предполагает, что она может привести только к
предварительному общему правилу. Из этого абдуктивного правила уже следуют
дальнейшие дедуктивные общие положения, которые затем проверяются путем индукции.
Таким образом, индукция, дедукция и абдукция связаны между собой. Пирс утверждает, что
для научного исследования необходим так называемый «абдукционный инстинкт», без
которого невозможно было бы развитие науки. Абдукция позволяет принять возможность
объяснения определенных фактов даже в том случае, когда не установлены твердые
объяснительные закономерности. Также абдукция, согласно Пирсу, позволяет ввести в
процесс научного познания воображение в качестве эвристической силы.
Логика научного исследования
Общая логика научного исследования
Позитивистский взгляд утверждает, что естественные и социальные науки вырастают
из эмпирического базиса, то есть эксперимент и наблюдение предшествуют
формулированию теорий. Но такой взгляд крайне проблематичен, ибо наблюдение само по
себе случайно и потому не может дать систематического научного знания, а эксперимент
представляет собой вмешательство в природные процессы с целью проверки какой-либо
гипотезы, возникшей в рамках той ли иной теории. Французский математик Рене Том
указывает на то, наблюдение само по себе не может предоставить новые и плодотворные
идеи тем, у кого их нет7. Это значит, что совокупность фактов не может породить теории.
Напротив, имеющаяся теория упорядочивает факты, задает перспективу их интерпретации и
тем самым конструирует реальность как некую систему. Существуют факты, способные
вызвать одну и ту же идею у одинаково обученных людей; существуют факты, которые
довольно долгое время ничего «не говорят» ученым, пока не наступает «просветление» (в
данном случае — мутация научной парадигмы) и разум начинает интерпретировать эти
факты и «находить» в них совершенно новые связи. Любое открытие рождается из такого
чувства вещей, которое не только глубоко лично, но и зависит от состояния разума в данный
момент.
Практика эмпирического познания — это еще не научное познание. «Эмпирический
факт» и «научный факт» — далеко не одно и то же. Последний должен отвечать двум
условиям: быть воспроизводимым и представлять интерес (технологический или
теоретический). Теоретический интерес означает способность факта фальсифицировать или
верифицировать научную гипотезу. Таким образом, в научном познании теория всегда и с
необходимостью предшествует любому наблюдению или эксперименту. Поэтому структуру
науки можно представить следующим образом: теория – гипотеза – эксперимент.
Согласно Карлу Попперу, развитие научного знания предстает как эволюция,
включающая своеобразный «естественный отбор». Проблема Р1 порождает попытки решить
ее при помощи пробных теорий. Эти теории подвергаются критическому анализу и
7
Том Р. Экспериментальный метод: миф эпистемологов (и ученых?) // Вопросы философии, 1992, № 6, с. 110
61
устранению выявленных ошибок, что дает возможность сформулировать проблему Р 2.
Появление новой проблемы указывает на достигнутый прогресс. Следует учитывать, что
«эволюционизм» Поппера использует знаменитую теорию Дарвина как своеобразную
метафору. Отбор в науке происходит благодаря осознанной критической деятельности
людей. Сходство с природным миром здесь лишь в том, что всем живым организмам
присуща функция решения проблем, возникающих из внешней окружающей среды или же
из внутреннего состояния организма. Знание, таким образом, становится одним из способов
приспособления живого организма к условиям окружающей среды.
Вслед за Поппером, большинство методологов считает началом научного поиска
выявление проблемной ситуации и постановку проблемы. Проблема возникает тогда, когда
мы начинаем ощущать дефицит знания или же улавливаем внутренние противоречие в уже
имеющемся знании.
Типы проблемных ситуаций
В зависимости от того, какие элемента знания приходят к рассогласованию или
конфронтации, выделяют следующие типы проблемных ситуаций:
1) Расхождение теории с некоторыми экспериментальными данными.
2) Конфронтация теорий, применяемых к одной предметной области. Здесь можно
выделить три вида конкуренции теорий:
А. Теории эквивалентны как в эмпирическом, так и в семантическом плане, но
различаются лингвистически. Например, квантовая механика представлена как волновой
механикой де Бройля и Э. Шрѐдингера, так и матричной механикой В. Гейзенберга и М.
Борна.
Б. Теории эквивалентны в эмпирическом плане, но неэквивалентны в семантическом
отношении, то есть на основании одних и тех же экспериментальных данных строятся
различные гипотезы и вычленяется различное теоретическое содержание. Например,
гендерная теория и традиционные подходы к анализу поло-ролевых моделей поведения.
В. Теории не только обладают различной семантикой, но и неэквивалентны в
эмпирическом плане. Например, кислородная теория А. Лавуазье и флогистонная теория.
3) Проблемная ситуация возникает как столкновение парадигм или исследовательских
программ. На общеметодологическом уровне выделяют три типа концептуальных
противоречий:
А. Несовпадение онтологических схем (Птолемей - Коперник)
Б. Противоречие между теорией и господствующими в науке методологическими
установками.
В. Противоречие между научной теорией и господствующими мировоззренческими
установками.
Каждая научная традиция устанавливает демаркацию проблем и псевдопроблем.
Выделяют три группы псевдопроблем:
1)
«Онтологические» псевдопроблемы, возникающие, когда предметное
существование приписывают теоретическим объектам, таким существованием не
обладающим. Например, эфир, теплород, флогистон.
2)
Логико-гносеологические псевдопроблемы, вызванные объективными
трудностями познания и уровнем развития средств наблюдения.
3)
Логико-грамматические и семантические псевдопроблемы, порождаемые
несоответствием между языком, его структурой, правилами и логикой. Например,
парадоксы, которые возникают при неразличении объектного и метаязыка.
62
Подход К. Поппера
По мнению К. Поппера, «эмпирические науки – это системы теорий, поэтому логику
научного познания можно определить как теорию теорий»8. Он, как и логические
позитивисты, считал, что судьба научной теории должна определяться только через ее
отношение к фактам. Однако остается вопрос, каков тип связи между этими двумя
важнейшими элементами научного знания? Традиционно выделяют два типа логической
связи: индуктивный и дедуктивный. Индуктивная логика предполагает, что теории возникаю
как результат наблюдения фактов. Вывод называется «индуктивным», если он направлен от
сингулярных высказываний (иногда называемых также «частными высказываниями») вроде
отчетов о результатах наблюдений или экспериментов к универсальным высказываниям
вроде гипотез или теорий.
С логической точки зрения, оправданность выведения универсальных высказываний
из сингулярных отнюдь не очевидна: вывод может быть ложным, каким бы ни было
количество сингулярных высказываний (и, следовательно, согласующихся с выводом
фактов). Сколько бы примеров появления белых лебедей мы ни наблюдали, все это не
оправдывает заключения: «Все лебеди белые». Поппер считает, что трудности,
возникающие с индуктивными методами, непреодолимы, и потому он не признает само
существование индуктивной логики, считая ее мифом.
Таким образом, единственный признаваемый Поппером метод проверки теорий – это
дедуктивный метод. Это значит, что гипотезу или теорию можно проверить эмпирически
только после того, как она была выдвинута. Но с дедуктивной логикой связана другая
трудность: дедуктивные отношения не создают связей между теорией и фактами, ведь
факты – это не следствия из теории! Таким следствием являются другие теоретические
положения (гипотезы и предсказания), которые просто совпадают с фактами, что и
фиксирует эмпирическая проверка. При этом истинность следствий сама по себе не
гарантирует истинность основного положения.
Проанализировав эти трудности, Поппер обратился к одному из модусов силлогистики
Аристотеля, называемому modus tolens: Если А, то В. Пусть А – это теория, а В – следствия,
наблюдаемые эмпирически. Если опровергается следствие, то опровергается и теория.
Следовательно, значение имеют только опровергающие факты, и зависимость научного
знания от опыта имеет только негативное значение.
Это – базовое положение
фальсификационизма Поппера. В его рамках критерием научности является способность
теории входить в противоречия с фактами, то есть принципиальная возможность ее
опровержения.
Согласно развиваемой Поппером концепции, метод критической проверки теорий и
отбора их по результатам такой проверки всегда идет по следующему пути. Из некоторой
новой идеи, сформулированной в предварительном порядке и еще не оправданной ни в
каком отношении, с помощью логической дедукции выводятся следствия. Затем
полученные следствия сравниваются друг с другом и с другими соответствующими
высказываниями с целью обнаружения имеющихся между ними логических отношений
(типа эквивалентности, выводимости, совместимости или несовместимости).
Можно, как представляется, выделить четыре различных пути, по которым
происходит проверка теории. Во-первых, это логическое сравнение полученных следствий
друг с другом, при помощи которого проверяется внутренняя непротиворечивость системы.
Во-вторых, это исследование логической формы теории с целью определить, имеет ли она
характер эмпирической, или научной, теории или, к примеру, является тавтологичной. Втретьих, это сравнение данной теории с другими теориями, в основном с целью определить,
внесет ли новая теория вклад в научный прогресс в том случае, если она выживет после ее
различных проверок. И, наконец, в-четвертых, это проверка теории при помощи
эмпирического применения выводимых из нее следствий.
8
Поппер К. Логика научного исследования. – М., 2004, с. 54
63
Научное объяснение – это, как правило, объяснение причинно-следственных связей
явлений. Согласно Попперу, дать причинное объяснение какого-либо события – значит
дедуцировать описывающее его высказывание, используя в качестве посылок один или
несколько универсальных законов вместе с определенными сингулярными высказываниями.
Приведем пример такого причинного объяснения. Мы имеем порванную нить, предел
прочности которой был 1 фунт, но к которой подвесили груз весом 2 фунта. При анализе
этого случая мы можем выделить различные типы высказываний.
1)
Гипотеза, имеющая вид универсального высказывания: «Всякая нить,
нагруженная выше своего предела прочности, разрывается». Такие высказывания носят
характер естественных законов.
2)
Начальные условия - сингулярные высказывания, описывающие данный случай.
«Нить имеет прочность 1 фунт» и «К нити подвесили груз 2 фунта».
3)
Предсказание, имеющее вид сингулярного высказывания и дедуцированное из
гипотезы в конъюнкции с начальными условиями: «Эта нить разорвется».
Начальные условия описывают то, что называют «причиной» события, а предсказание
– то, что принято называть «следствием». Поппер не утверждает никакого «принципа
универсальной каузальности (причинности)». Более того, он избегает самих слов
«причина» и «следствие», используя взамен «начальные условия» и «предсказание». Этим
он как бы избегает сомнительного перенесения законов логической связи в физический
мир, необоснованность которого показал еще Юм. Для Поппера «каузально объяснить
событие» означает дедуцировать предсказание из гипотезы и начальных условий.
Различие между универсальными и сингулярными высказываниями тесно связано с
различием между универсальными и индивидуальными понятиями (или именами).
Универсальные понятия – это, например, «диктатор» или Н2О, а индивидуальные – это
«Наполеон» или «Тихий океан». Любое прикладное научное исследование опирается на
переход от универсальных научных гипотез к частным случаям, то есть на дедукцию
сингулярных предсказаний, а в каждое сингулярное высказывание должны входить
индивидуальные понятия (или имена). Индивидуальные имена, используемые в
сингулярных научных высказываниях, часто выступают в виде пространственновременных координат.
Реальность и ее репрезентация
Классическая установка теории познания, которую называют еще метафизическиреалистической, состоит в том, что наш разум в процессе познания репрезентирует
реальность. При этом предполагается, что разум функционирует одинаковым образом в
любом разумном субъекте, и что этот разум в состоянии «ухватить» законы реального мира,
которые суть объективная истина. Такая реалистическая установка лежит в основе
естественнонаучного познания. Но в то же время эта установка не является специфической
для науки, ибо именно она роднит науку с обыденным мышлением и тем, что мы называем
«здравым смыслом». Естественная установка обыденного сознания заставляет нас верить,
что то, что мы называем реальностью есть нечто стабильное и инвариантное. Генеральный
тезис естественной установки сознания гласит: даже если по ходу опыта смысловые связи
модифицируются, само бытие реальности под вопрос не ставится. Реальность становится для
нас проблемой в лучшем случае тогда, когда мы сталкиваемся с несогласующимися
опытами, которые мы не в состоянии привести в когерентную связь.
С точки зрения здравого смысла, в реалистической установке нет никакой проблемы,
но с точки зрения философии она оказывается весьма уязвимой и поднимает множество
вопросов. Действительно, каковы гарантии того, что в акте познания разум действительно
репрезентирует реальное? Что такое «реальное»: независимая от нас действительность или
же наше знание об этой действительности? И что такое репрезентация: простое отражение
или же творческое воссоздание или даже конструирование знания?
64
Понятие «репрезентация» многозначно и употребляется как в философии, так и в
лингвистике, семиотике, психологии и т.д. Наиболее общее определение репрезентации
будет следующим: репрезентация — это представление одного в другом и посредством
другого. Наиболее яркий пример этого — язык или любая другая знаковая система.
Репрезентация представляет собой одну из базовых культурных практик и ключевой
момент в циркуляции культуры. Одно из самых простых определений культуры можно
сформулировать как "разделяемые смыслы". Главным посредником в разделении смыслов
является язык: понимание смыслов возможно, лишь если это язык - общий. Но язык
способен выполнять эту роль только потому, что является системой репрезентации - слова
репрезентируют свои смыслы.
Существуют также разные подходы, объясняющие природу репрезентации. Стюарт
Холл выделяет три основные способа такого объяснения:
C точки зрения рефлексивного подхода, воссоздаваемое с помощью репрезентации
значение связано с отображаемым объектом, человеком, идеей или событием,
существующими в реальном мире, а язык играет лишь роль зеркала, отражающего этого
значение. Этот подход называется еще миметическим, от греческого слова мимезис,
означающего "подражание". Он передает один из важных аспектов репрезентации - ее связь
с реальным миром, но бессилен объяснить возможность различных репрезентаций одного и
того же явления.
Интенциональный подход предполагает, что смысл и эффекты любой
репрезентации целиком задаются ее автором, тем, кто пользуется языком, рисует картины,
делает фотографии и т.п. Он отражает активную роль субъекта репрезентации, но не может
объяснить, почему заложенные в нее смыслы могут восприниматься и разделяться другими
людьми - любое средство коммуникации подразумевает не только автора, но и рецептора
смыслов.
Наконец, конструктивистский или конструкционистский подход делает акцент на
социальном характере репрезентации. Ее смысл не является ни механическим отражением
объектов, ни достоянием индивидуального автора: он каждый раз заново конструируется и
реконструируется в процессе коммуникации, непосредственно отражая ее социокультурный
контекст.
В рамках философского дискурса, теории познания, понятие репрезентации
используется, чтобы дать ответы на вопрос об отношении между бытием и сознанием, а
также прояснить функцию и статус знания. Классическая европейская философская
традиция исходила из рефлексивного или миметического понимания репрезентации,
базирующегося на метафизически-реалистическом подходе. Суть подхода:
- предполагается некий изоморфизм бытия и мышления.
- предполагается, что свойства мира, его структура предшествуют нашей когнитивной
деятельности.
- предполагается, что в процессе познания сознание «отражает» некий реальный
объект, иными словами, наш разум репрезентирует реальность.
Такая трактовка ментальной деятельности согласуется, как уже говорилось, с
обыденным представлением о процессах познания. Однако можно выделить два момента,
которые делают такой подход весьма проблематичным:
1)
Что может служить гарантией того, что сознание действительно отражает
реальность?
2)
Если это так, то почему о реальности можно говорить на разных языках и с
позиции разных теорий?
Такую проблематизацию метафизически-реалистического подхода к познанию принято
называть «кризисом репрезентации». Причиной этого послужила та ситуация, которая
начала складываться в науке на рубеже 19 и 20 веков. Происходит невероятно быстрое
умножение теорий, возникает множество геометрий, логик, физических и химических
гипотез, каждая из которых хороша для одного, но недостаточно хороша для всего. Это
65
существенно поколебало представление о большей объективности одной теории по
сравнению с другими, а также веру в то, что науки добывают истины, являющиеся точными
копиями определенных кодов нечеловеческой реальности.
Философское осмысление этой ситуации позволяет сделать ряд обобщений:
1)
Когнитивные процессы и высказывания о реальности зависят от принятых
представлений о взаимоотношении познания и реальности, которые являются частями
общей схемы – мировоззрения.
2)
Вещи и свойства внешнего мира сами по себе не дают никаких гарантий
адекватности нашего знания.
3)
Знание не может быть независимым от наших интенциональных и
пропозициональных установок (убеждений, желаний, мнений, веры и пр.). Объективность
пропозиций всегда связана с субъективностью пропозициональных установок.
4)
Поскольку знания зависят от контекста и перспективы, они всегда
относительны, то есть их нельзя априори защитить от скептических мнений и возражений.
Это значит, что репрезентация всегда перспективна, это всегда «репрезентация - как».
Реализм и антиреализм
Антиреалистическая позиция утверждает: «теоретических объектов» как вещей не
существует. Электроны – это фикция. Теории, которые их описывают, служат лишь
инструментами мысли. Теории могут быть полезными, подтвержденными или
применимыми, но мы не должны считать даже наиболее убедительные из этих теорий
истинными. С философской точки зрения эта вторая позиция выглядит более корректной.
Более того, к такой позиции нас подвигает само развитие науки, которое и вызвало в начале
прошлого века кризис метафизико-реалистических представлений, который еще называют
«кризисом репрезентации». Однако для многих ученых антириалистический взгляд
представляет собой просто набор софистических упражнений, ибо если наука не изучает
существующие объекты, то в чем же смысл такой науки?
Известный философ науки, профессор Торонтского университета Ян Хакинг считает
себя реалистом и приводит следующую историю о своем выборе этой позиции. Нескольку
ученых проводили эксперимент с шаром из ниобия с целью обнаружить кварки
(минимальные носители электрических зарядов). Хакинг спросил своего друга,
участвовавшего в этом эксперименте, как они меняли электрический заряд на ниобиевом
шаре? «Ну, - ответил тот, - на этой стадии мы напыляем на него позитроны, чтобы увеличить
заряд, или электроны, чтобы уменьшить его». С этого момента Хакинг стал научным
реалистом, ибо для него, если нечто можно «напылять», то оно реально. Его убедили не
кварки, а то, что сегодня существуют стандартные излучатели, с помощью которых мы
можем напылять позитроны и электроны. Однако Хакинг признает, что проблемы реализма
не решаются так просто, и связанные с ним вопросы возникают в истории познания все
время.
Можно выделить три составляющие научного реализма:
1) Онтологическая составляющая: научные теории являются либо истинными, либо
ложными, и истинность или ложность теории есть следствие состояния мира.
2) Причинная составляющая: если теория истинна, теоретические термины теории
обозначают теоретические объекты, являющиеся причинами наблюдаемых явлений.
3) Эпистемологическая составляющая: у нас может быть обоснованная вера в теории
или объекты (по крайней мере, в принципе).
Реализм как таковой может быть поделен на два вида в зависимости от своего
предмета: реализм относительно объектов и реализм относительно теорий. Для теорий
важно, истинны ли они, могут ли они быть истинными или ложными, претендуют ли на
истинность или стремятся к истине. Для объектов важно, существуют ли они.
66
Может показаться, что вера в теорию автоматически влечет за собой веру в
существование объектов теории. Но Бертран Рассел в свое время показал, что это не так.
Тогда Рассела интересовала не истинность теорий, а ненаблюдаемые объекты. Он считал,
что мы должны использовать логику, чтобы переделать теорию так, чтобы предполагаемые
объекты оказались логическими конструкциями. Тогда термин «кварк» не будет обозначать
кварки, а будет сокращением сложного логического выражения, отсылающего только к
наблюдаемым явлениям. Рассел был тогда реалистом в вопросе о теориях, но антиреалистом
в вопросе об объектах.
Различают реализм в общем (философский уровень) и реализм в частном (специальные
науки). Например, не все ученые принимают реальность фотонов и полагают, что более
фундаментальная теория покажет, что фотон - артефакт существующих теорий. Это пример
реализма в общем, и антиреализма в частности. Другим примером общего реализма является
реализм в вопросе об атомах и молекулах. Реальность атомов и молекул не являлась лишь
частной проблемой, касающейся одного вида объектов, поскольку эти частицы были
основными кандидатами на роль фундаментальных.
Некоторые исследователи, например, Н. Р. Хэнсон, отмечают любопытную черту
новых направлений в естественных науках. Сначала идея предлагается обычно в качестве
инструмента для расчетов, а не в качестве буквального представления о мире. Новые
поколения рассматривают теорию все более реалистично. В науке вполне обычен переход от
антиреализма относительно некоторой теории или ее объектов к реализму.
Научная объективность и проблема истины
Проблема соотношения различных систем человеческого знания и реальности за
пределами мышления и познавательного опыта является одной из ключевых
эпистемологических проблем. От ответа на вопрос о том, имеет ли знание какое-либо
отношение к реальности или является произвольным конструктом зависит, в частности,
эпистемологическй статус науки.
В современной эпистемологии происходит переосмысление понятия объективности
знания. Это переосмысление является следствием того, что метафизико-реалистический
взгляд на природу объективного знания и структуры мышления обнаружил свою
несостоятельность при решении многих эпистемологических проблем.
В то же время трансформация взглядов на природу познания приводит к
реактуализизации позиции, высказанной в свое время еще софистами. Согласно этой
позиции познавательная деятельность субъекта обусловлена исключительно меняющимся
контекстом, соответственно, ее результаты конвенциональны, плюралистичны, исторически
изменчивы и, как следствие этого, произвольны. Такой тотальный релятивизм скорее
обнаруживает новые проблемные зоны, чем снабжает нас удовлетворительными ответами
относительно природы познания. В силу этого необходимо рассмотреть различные
альтернативы, касающиеся проблемы объективности знания.
Классическая концепция объективности и корреспондентная теория
истины
Понятие
объективности
в
классической
эпистемологии
основано
на
эпистемологической позиции, обозначаемой как «метафизический реализм» или
«объективизм». Сущность «метафизического реализма» или, как его еще называет Х.
Патнем, «реализма с экстерналистской перспективой», определяется следующим образом:
мир состоит из некоторой фиксированной общности объектов, независящих от разума.
Существует в точности одно истинное и полное описание того, «каков мир». Истина
67
подразумевает некоторый тип соответствия между словами или мыслительными знаками и
внешними вещами и множествами вещей 9.
Другое название данной эпистемологической позиции — корреспондетная теория
истины. Корреспонденция — это соответствие, следовательно, корреспондентная теория
истины определяет истину как некоторый тип соответствия между содержанием мышления,
системой знания или фрагментом данной системы и реальностью вне пределов сознания и
познавательного опыта. Считается, что в явном виде корреспондентная теория истины была
впервые сформулирована Аристотелем.
Познание с токи зрения корреспондентной теории истины носит репрезентативный
характер, и символы, используемые в познании, обретают смысл в ходе сопоставления с
реальностью. Поскольку разум познающего субъекта внутренне репрезентирует внешнюю
реальность, «он является зеркалом природы, а правильное мышление отражает логику
внешнего мира» 10.
Согласно объективистской метафизике, мир устроен таким образом, что он может быть
представлен посредством теоретико-множественных моделей, то есть состоит из сущностей,
признаков сущностей и отношений между сущностями. Признаки, которыми данная
сущность обладает, должны быть строго фиксированными, а принадлежность сущности к
определенной категории предполагает, что данная сущность полностью несет в себе все
признаки этой категории. Таким образом, в основе объективизма лежит эссенциализм,
фундаментом которого является представление о том, что категориальные границы мира
четко определены единственно возможным способом.
Абсолютистский характер притязаний классической эпистемологии состоит в том, что
«объективная истина должна быть абсолютным соответствием между нашими мыслями и
столь же абсолютной действительностью» 11. Согласно этому абсолютизму, существует
возможность, по крайней мере, потенциальная, построить исчерпывающую систему знания,
которая может подвергаться лишь дальнейшим уточнениям, но не кардинальным
изменениям. Также данный подход предполагает, что возможно разработать универсальную
процедуру установления истины.
Для абсолютистского подхода к проблеме знания характерно представление о том, что
знание объективно только в том случае, если получено так называемым «абсолютным
наблюдателем». Несмотря на то что, согласно Р. Рорти, в рамках современного научного
дискурса произошел отход стремления занять позицию «абсолютного наблюдателя», в науке
сохраняется требование ценностной нейтральности, ассоциирующееся с объективностью.
Также сохраняется присущее метафизическому реализму представление о том, что
объективное познание должно быть основано на мышлении абстрактного бестелесного
субъекта, не включенного в контекст социальных практик.
Мышление, согласно подобному подходу, имеет формально-символический характер.
Законы такого мышления должны быть универсальными, неизменными и алгоритмически
реализуемыми. Соответственно, предполагается, что существует статичный исходный
уровень мышления, большая часть когнитивных процессов базируется на этом неизменном
исходном уровне и, в конечном счете, редуцируется к нему.
Различные способы получения знания представляют собой отдельные модули внутри
общей системы, так, например, образное мышление отделено от рационального и от средств
лингвистического выражения. Проводится жесткая дистинкция между содержанием
чувственного опыта и содержанием суждения, причем предполагается, что «содержание
чувственного опыта субъективно, по крайней мере, отчасти, в то время как содержание
9
Цит. по: Хакинг Я. Представление и вмешательство М., 1998. С. 52.
Лакофф Д.Женщины, огонь и опасные вещи. Что категории языка говорят нам о мышлении. М., 2004. С.11.
11
Джеймс В. Прагматизм. Новое название для некоторых старых методов мышления. Популярные лекции по
философии. СПб., 1910. С. 26.
10
68
суждения претендует на то, чтобы быть объективным» 12. Следовательно, абсолютизируются
дискурсивные формы познания, воспринимающиеся в качестве познавательной
деятельности как таковой или, по крайней мере, как безусловно высшие формы
познавательной деятельности.
Согласно Я. Хакингу, данный подход к проблеме реальности и познания, является
«скорее определенной перспективой, чем определенной теорией реальности». Это значит,
что представление о характере реальности и объективности присутствовало во многих
эпистемологических концепциях в качестве неявной установки, влияя на эксплицитное
содержание данных концепций: «невозможно найти ни одного философа до Канта, который
не был бы метафизическим реалистом» 13. Тем не менее, противоречия, присутствующие в
подобном понимании объективности, со временем потребовали критической рефлексии над
метафизическим реализмом.
Критика классической концепции объективности
Метафизико-реалистическое представление о природе знания, объективистская
метафизика и корреспондентная теория истины периодически подвергаются значительной
критике. Прежде всего, под ударом критики оказывается само понятие «соответствие»
(знания и реальности), ключевое для данного подхода. Соответствие можно понимать как
сходство, но тогда получается, что содержание мышление должно совпадать или быть
похожим на то, что оно отображает. Тем не менее, даже содержание чувственного
восприятия можно считать обладающим сходством с объектами действительности лишь с
некоторой условностью. Когда речь идет об общих или абстрактных понятиях или,
например, математических объектах, возникает не только проблема сходства с референтом,
но также проблема обнаружения самого референта.
Также понятие «соответствие» является проблематичным, поскольку для того, чтобы
это соответствие между содержанием мышления и объектом действительного мира
установить, нужно занять позицию наблюдателя, внешнего как по отношению к объекту
действительности, так и к содержанию мышления, отображающего этот объект. Очевидно,
что занять такую позицию не представляется возможным, поскольку познающий субъект
является частью познаваемой реальности.
Еще одна проблема связана с тем, что не вполне понятно, что следует считать
действительностью, которой должно соответствовать содержание мышления. Согласно,
например, концепции логического атомизма, суждения, выражающие содержание
мышления, должны соответствовать фактам. Однако сами факты основаны на материале
чувственного восприятия, которое имеет собственные границы и не репрезентирует мир так,
как он действительно существует, не раскрывает «вещь-саму-по-себе».
Критическое отношение к метафизико-реалистической позиции связано также с двумя
особенностями особенностями получения знания. Первая из этих особенностей основана на
гетерогенном характере познавательной деятельности, которая никогда не представляет
собой монолитную систему получения объективного знания с помощью заранее известных и
единообразных методов.
Вторая особенность - историческая изменчивость познавательных практик, научных
парадигм и теорий. Выявленная динамичность познавательных систем и способов
осуществления познавательного опыта воспринимается критиками как препятствие для
построения систем объективного знания.
12
Cussins A. Subjectivity, Objectivity and Frames of Reference in Evans's Theory of Thought // [электронный
ресурс] ( http://ejap.louisiana.edu/EJAP/1998/cussins98.html).
13
Патнем Х. Реализм с человеческим лицом // Аналитическая философия: становление и развитие. Антология.
М., 1998. С. 468.
69
Релятивистские концепции
В качестве абсолютной альтернативы метафизико-реалистическому подходу выступает
релятивизм. Релятивизм не является единым эпистемологическим течением, он представляет
собой определенную эпистемологическую установку, как и метафизико-реалистический
подход. Выделяются несколько разновидностей релятивизма: персоналистский,
когнитивный и культурный.
Первый тип релятивизма отсылает к субъективистской трактовке знания и приводит к
психологизму. Согласно этому типу релятивизма, закономерности, определяющие
познавательную деятельность, имеют случайный и произвольный характер. Такой тип
релятивизма можно считать альтернативой классическому трансцендентализму, поскольку
он утверждает эмпирическую природу когнитивных механизмов. Эмпирическая природа
этих механизмов предполагает, что познание является индуктивным обобщением,
основанном на протекании конкретных мыслительных процессов.
Данный тип релятивизма восходит еще к софистам и античному скептицизму. Он был
характерен для различных типов феноменализма, а также конвенционалистских концепций.
Этот вид релятивизма приводит к психологизму в обосновании познания, поскольку
утверждается, в частности, что нормативность логических законов не имеет абсолютной
значимости, так как является простым обобщением опыта отдельных индивидов и
устанавливается конвенционально.
Когнитивный релятивизм, представителем которого является, в частности, Р. Рорти,
базируется на утверждении, что в научном познании не существует критериев адекватности
научных теорий действительности. Подчеркивается, что как отдельные теории, так и любые
способы получения знания в целом исходно являются равноценными, и принятие той или
иной теории связано со стремлением достичь согласия внутри научного сообщества.
Подчеркивается произвольный характер этого согласия, подчиненного правилам
определенной интеллектуальной «игры» в поиск истины.
Научная теория является в данном случае не более чем абстрактной моделью
реальности. Любое знание объявляется всего лишь нарративом, одним из множества
возможных. Теория воспринимается как абстрактная форма, которая накладывается на
неупорядоченную реальность. Принципиальной разницы между теориями в любой области
не существует, следовательно, обесценивается само понятие знания, поскольку «научное
знание – это дискурс» 14.
Культурная версия релятивизма ориентирована на рассмотрение знания в процессе его
исторической изменчивости, этот вид релятивизма утверждает, что научное знание
обусловлено тем типом культуры, в котором оно появляется, в силу чего оно не может
обладать универсальной значимостью. Для культурного релятивизма характерно
представление не только об исторической изменчивости форм познания и принадлежности
каждого типа когнитивных практик к определенному социокультурному контексту, но также
жесткая детерминированность знания социокультурной основой.
Согласно данной версии релятивизма, знание не может быть межкультурно
транслировано. В силу этого любая теория, претендующая на универсальность, связывается
со стремлением утвердить диктатуру культурного центра над периферийными культурами.
Таким образом, те, кто утверждает определенную систему знания от имени истины, на самом
деле преследуют цели получения власти и стремятся подавить любых конкурентов.
Персоналистский и когнитивный аспекты релятивизма относятся к структуре научного
знания как таковой, в то время как культурный релятивизм указывает на исторически
сложившееся взаимодействие научного знания и других форм культуры. Эти разновидности
релятивизма относятся к различным измерениям познания. «Персоналистский и
когнитивный релятивизм относятся к синхронному аспекту бытия научного познания.
Культурная версия эпистемологического релятивизма - к диахронному, т.е. к знанию,
14
Лиотар Ж.-Ф. Состояние постмодерна. СПб., 1998. С. 48.
70
взятому в его историческом развитии, в его взаимодействии с социально-культурным
контекстом» 15.
Таким образом, релятивистская установка содержит несколько ключевых положений:
утверждается так называемый кризис репрезентации, абсолютизируется социокультурная
обусловленность, а также конвенциональный характер большинства аспектов
познавательных практик, в том числе и практики научной, которая лишается
привилегированного статуса при объяснении реальности, а также пересмотр субъектнообъектных отношений в рамках изменения концепции рациональности. Все эти положения
признаются основаниями для отрицания объективности знания в целом, а также
эпистемологических преимуществ каких-либо способов осуществления познавательной
деятельности.
Современные альтернативы классической концепции истины и
объективности
Сторонники релятивистской точки зрения, утверждающие, что «объективность – это
всего лишь химера, создание, которое никогда не существовало, и сохраненное теми, кто
уверен, что знание может быть отделено от познающего», исходят из того, что понимание
объективности в классической эпистемологии является, по сути, единственно возможным
способом интерпретации этого понятия. Здесь закономерен вопрос, можно ли метафизикореалистический подход определять как основу понимания объективности. В современной
эпистемологиим существует ряд иных способов понимания объективности, которые
являются альтернативой как метафизического реализма, так и абсолютного релятивизма.
Отождествление понятия объективности с метафизико-реалистическим подходом не
может быть приемлемо уже потому, что реализм с экстерналистской перспективой и
объективность являются дифференцированными эпистемологическим категориями: «Хотя
понятия реализма и объективности связаны между собой, они относятся к двум разным
аспектам научного знания. Эпистемологическую объективность следует отличать от
реализма – представления о том, что постулируемые в теории в качестве реально
существующих онтологические сущности действительно существуют» 16. Соответственно,
понятие объективного знания шире, чем понятие объективности как соответствия
содержания знания и реальности.
Согласно таким эпистемологическим альтернативам, система знания, претендующая на
объяснение мира с единственно возможной и всеохватывающей точки зрения на самом деле
далека от объективности, поскольку получить знание с такой точки зрения вообще
невозможно. Тем не менее, как подчеркивает Д. Лакофф, «это не означает, что объективная
действительность не существует» 17.
Одной из таких эпистемологических альтернатив является концепция «внутреннего
реализма» Х. Патнема. С помощью концепции внутреннего реализма Х. Патнем
предполагает элиминировать противопоставление субъективного и объективного
представления об истине. Объективность, согласно Х. Патнему, традиционно связывается с
восприятием истины как соответствия. С другой стороны, как отмечает Х. Патнем,
обнаружение субъективного компонента в познавательных практиках связывается с
релятивизмом. Сущность «внутреннего реализма» заключается в утверждении о том, что
объекты не существуют вне определенных концептуальных схем, то есть невозможно
установить соответствие между содержанием знания и реальностью за пределами
познавательной сферы. Истинным при таком подходе будет рационально приемлемое
15
Мамчур Е.А. Объективность науки и релятивизм: (К дискуссиям в современной эпистемологии). М., 2004.
С.15.
16
Там же, с. 14
17
Лакофф Д. Женщины, огонь и опасные вещи: Что категории языка говорят нам о мышлении. М., 2004. С. 391.
71
знание, то есть обоснованное средствами самого разума, зависящего от биологического и
культурного контекста.
Таким образом, Х. Патнем предлагает подход к проблеме объективности, включающий
многие аспекты когерентной теории истины. Согласно этой теории, истинность теории
обосновывается ее самосогласованностью и непротиворечивостью. Суждение считается
истинным, если оно является элементом согласованной системы. В наибольшей степени
данный критерий применим к системе математического знания.
Возможность выхода за пределы одной системы представления знания в область
другой системы предполагает не только эффект согласованности внутри системы, но и
установление смысловой соотнесенности элементов различных систем. Х. Патнем
указывает, что один и тот же объект может быть рассмотрен правильно различными
способами, каждый из которых помогает понять специфичность другого. Установление
корреляции между этими способами приводит к приращению знания. Так, например,
рассматривая какой-либо объект, данный в повседневном опыте в рамках мезомира, можно
также иметь в виду, что он может интерпретироваться по-другому в иных концептуальных
системах. Следовательно, этот объект может быть рассмотрен не только как единичный
дифференцированный объект мезомира, но и как совокупность молекул с точки зрения
молекулярной теории, или же набор волновых форм с точки зрения квантовой теории.
Таким образом, когда в концепции «внутреннего реализма» утверждается, что объекты
не существуют вне концептуальных схем, то этим не отрицается реальность объектов, а
скорее предполагается, что объект может быть рассмотрен с различных позиций, и это
предполагает отказ от абсолютизации единственной точки зрения и помогает учитывать
сложность реальности, инициирующей разнообразие собственных интерпретаций. В этом
случае возможна постоянная взаимная корректировка различных способов рассмотрения
реальности, предполагающая неизбежное осознание ограниченности собственной позиции:
«парадоксально, но для того, чтобы быть объективным, надо быть в некотором смысле
релятивистом» 18.
Согласно Д. Лакоффу, объективность, будет состоять в первую очередь в том, чтобы
попытаться посмотреть на проблему с других точек зрения, как можно более разнообразных.
Также объективность состоит в способности различать концепты непосредственно
значимого опыта и образно-схематические концепты от концептов, которые значимы
косвенно. Объективность требует осознания специфики собственной концептуальной
системы и ее неизбежной ограниченности. Также объективность предполагает знание иных
релевантных точек зрения и умение использовать их. В то же время следует уметь различать
более стабильные и менее стабильные концепты, которые могут отвечать за разные участки
опыта, и принимать во внимание способы их взаимодействия.
В эволюционной эпистемологии признается, что в основе познания лежит не
абстрактный познавательный интерес, а необходимость использования знания для
выживания. Следовательно, основной функцией познания является адаптация к окружающей
среде. Таким образом, любые познавательные способности – это продукт эволюции: «Не
только органы чувств, центральная нервная система и мозг являются продуктами эволюции,
но в равной мере и их функции: зрение, восприятие, суждение, познание, построение
заключений» 19.
С этой точки зрения, знание и познание связано, прежде всего, со способностью
успешно действовать в мире: «Если задуматься над тем, каким критерием мы пользуемся,
когда говорим, что некто обладает знанием, то станет ясно, что под знанием мы понимаем
эффективное действие в той области, в которой ожидается ответ» 20. Важной особенностью
18
Лакофф Д. Женщины, огонь и опасные вещи: Что категории языка говорят нам о мышлении. М., 2004. С. 383.
Глазерсфельд Э. Введение в радикальный конструктивизм // Вестник Московского университета. Серия 7.
Философия. 2001. №4. С. 69.
20
Матурана У., Варела Ф. Древо познания: биологические корни человеческого понимания. М., 2001. С. 210.
19
72
деятельного характера познания становится активность познающего субъекта, которая
является не препятствием, но условием объективности знания.
Таким образом, представители эволюционной эпистемологии считают, что реальность,
по крайней мере отчасти, познаваема, поскольку адаптация возможна и сама необходимость
адаптации уже указывает на существование определенной реальности за пределами
познавательного опыта. Тем не менее, ни один способ познания не обеспечивает сам о себе
абсолютного знания, поскольку, по выражению Г. Фоллмера, никакая адаптация не
совершенна, но возможность взаимодействия разных «гипотетических реальностей» дает, в
конечном итоге, относительно связное представление о мире, позволяющее ориентироваться
в нем.
Таким образом, можно выделить несколько составляющих установки, предполагающей
возможность получения объективного знания в рамках скорректированного представления
об объективности и реализме: «а) убеждение в существовании реального мира, б) признание
того, что реальность накладывает ограничения на понятия, в) концепцию истины, которая
идет дальше только внутренней согласованности, и г) убеждение в возможности
достоверного познания мира 21.
Эта установка является антирелятивистской, поскольку включает отрицание взгляда,
что «все годится», - что любая концептуальная система ничем не хуже, чем любая другая. Д.
Лакофф указывает, что подобную систему взглядов разделяют как объективизм, так и
альтернативный ему экспериенциализм, но последний исключает при этом претензии какойлибо системы знания на обладание абсолютной истиной, поскольку предполагается, что одна
система знания обладает большей релевантностью лишь по отношению к другим системам,
также как определенные способы получения знания обладают большей надежностью по
сравнению с другими.
Язык и научное знание
Рассмотренные выше вопросы реальности и ее репрезентациях в научных теориях
напрямую связаны с проблемой языка науки. Любое научное знание носит языковой
характер, потому что лишь в той мере, в которой мысль выражена в слове, мы можем четко
осознать ее. Виллард Ван Орман Куайн отметил, что о мыслительных процессах мало что
можно сказать, если не закрепить их словами, ибо то объективное, что мы можем получить,
появляется только после слов 22. Наука формулирует знание, полученное в ходе
экспериментов, в виде пропозиций, то есть таких высказываний, которые могут соединяться
с предикатами «истинное» / «ложное». Пропозиция соотносится с экстенсионалом 23, то есть
планом референции и предметного именования. Именно поэтому высказывания науки могут
быть верифицированы, в отличие от высказываний философии, которая оперирует
афтореферентными концептами, соотносимыми с интенсионалом. Считается, что язык науки
отражает уже накопленное ею знание и развивается по мере проникновения в новые области
реальности. В то же время нельзя полагать, что между языком и реальностью существуют
некие магические связи, и предполагать буквальное соответствие между категориями языка
и категориями реальности было бы слишком наивно.
Разумеется, язык науки – это более строгое образование, обыденный язык. На
протяжении нескольких столетий философы и ученые задавались вопросом, как сделать
язык науки настолько строгим, чтобы он гарантировал абсолютную истинность сообщаемых
им знаний. Рационалисты XVII и XVIII столетий (Декарт, грамматики и логики Пор-Рояля,
21
Лакофф Д. Женщины, огонь и опасные вещи: Что категории языка говорят нам о мышлении. М., 2004. С. 14.
Quine W.V. О. Things and Their Place in Theories. The Belknap Press of Harvard University Press. Camb., Mass.,
1981, p. 1
23
Экстенсионалом Р. Карнап называл объем понятия, или всю совокупность объектов, которые могут
именоваться анализируемым термином. Экстенсионал понятия следует отличать от его интенсионала, или
содержания понятия, под которым понимается его смысл.
22
73
Лейбниц), придерживаясь метафизико-реалистической установки, исходили из убеждения,
что строгий, очищенный от неточностей язык способен адекватно отражать структуру
познаваемого мира. В XX веке сторонники логического позитивизма24 также верили в
утопию рационального, строгого и абсолютно формализованного языка науки. На пути
создания такого языка они столкнулись с двумя серьезными трудностями. Во-первых, как
было продемонстрировано Куртом Гѐделем в его знаменитой теореме, любая достаточно
богатая средствами выражения система должна с необходимостью содержать в себе
неформализуемые компоненты. Будучи абсолютно формализованной, система перестанет
быть креативной. Во-вторых, невозможно научно доказать, что логическая структура языка
отражает физическую структуру описываемой реальности. Утверждать обратное – значит
переносить свойства языка на физический мир, что является ошибкой. Чтобы успешно
разрешить эти трудности, пришлось согласиться, что истинность высказываний может
устанавливаться не только через соответствие с описываемым положением дел в реальности
(корреспондентный подход), но также через соглашения (конвенциональный подход) и через
соблюдение правил логической согласованности внутри теории (когерентистский подход).
Итак, невозможно окончательно разорвать язык науки и естественный язык
повседневного общения, с тем, чтобы обезопасить научный дискурс от всякого рода
неточностей и многозначностей. Это не представляется возможным хотя бы потому, что
естественный язык повседневного общения – это общий языковой ресурс. Наука, конечно,
создает свой специализированный язык, главное требование которого – установление
однозначного соответствия между языковым знаком и его референтом. Реализовать это
требование несложно, если речь идет о словах, обозначающих эмпирические объекты, на
которые можно указать и прийти к соглашению по поводу значения термина. Однако далеко
не все понятия научного языка таковы. Научно знание не может быть сведено к
совокупности фактов. Как было показано К. Поппером, эмпирические науки – это все-таки
системы теорий.
Наука оперирует двумя типами предложений: теоретические предложения и
предложения наблюдения. Идея, что фундаментальным элементом при определении
значения должно быть именно предложение, восходит, по-видимому, к теории фикций
Иеремии Бентама. Предложения начинают рассматриваться как первичные хранилища
значения, а слова приобретают значения благодаря их использованию в предложениях. По
мнению Куайна, такой поворот мысли дал философскому анализу понятий прочную основу
25
. Предложения наблюдения позволяют вербализировать эмпирические свидетельства, и
представляют собой то же самое, что и «истины факта» в эпистемологии классического
рационализма, то есть они суть предложения обстоятельств: при одних обстоятельствах они
истинны, а при других – нет. Кроме того, что предложения наблюдения вербализируют
эмпирическую проверку теории, у них есть и другая немаловажная функция – они
обеспечивают «вход в язык», то есть являются первыми предложениями при овладении
языком. В силу этого связь языка с действительностью в этих предложениях наиболее
сильная. Однако объективность таких предложений имеет интерсубъективный характер.
Иными словами, предложения наблюдения - это предложения обстоятельств, с которыми
могут непосредственно согласиться члены данного сообщества, если оказываются
свидетелями данного обстоятельства. Следовательно, наука объективна, поскольку
предполагает интерсубъективность предложений наблюдения.
Теоретические предложения включают в себя термины, описывающие не только
эмпирические, но и теоретические объекты, а также другие абстрактные сущности
(например, математические термины, описывающие числа и отношения между ними).
Теоретические предложения могут носить аналитический характер, а потому их проверка на
истинности посредством отсылки к реальности оказывается невозможной. Теории задают
24
Его еще называют неопозитивизмом или «третьим позитивизмом».
Quine W.V. О. Things and Their Place in Theories. The Belknap Press of Harvard University Press. Camb., Mass.,
1981, pp. 1 — 23
25
74
способ восприятия фактов и зачастую содержат в себе элементы философской метафизики
26
. Поэтому К. Поппер предложил подвергать проверке не саму теорию (что весьма
затруднительно), но вытекающие из нее эмпирические следствия, фиксируемые при помощи
предложений наблюдения. Мы должны отдавать себе отчет, что слова, задействованные в
предложениях наблюдения, так или иначе, вовлекаются в различные теоретические
контексты. То есть, одни и те же слова употребляются и в предложениях наблюдения, и в
теоретических предложениях. Это, с одной стороны, обеспечивает логические соединения
этих двух типов предложений, а с другой – делает предложения наблюдения неминуемо
теоретически нагруженными.
Для прояснения вопроса следует ввести такие понятия, как «сингулярные
высказывания», «универсальные высказывания» и «экзистенциальные высказывания».
Сингулярные высказывания будут соответствовать простым предложениям наблюдения.
Универсальные высказывания являются категорическими и содержат в себе такие слова, как
«все», «всегда» и т.п. Высказывания типа «Все вороны черны», являются строго
универсальными. Их следует отличать от высказываний типа «Некоторые вороны черны»
или « Многие вороны черны». Высказывание «Существуют черные вороны» является
примером строго экзистенциальных высказываний. Такое высказывание равнозначно
сингулярному высказыванию «Существует хотя бы один черный ворон».
Естественнонаучные теории, и в частности то, что мы называем законами природы,
имеют логическую форму строго универсальных высказываний. Поэтому они могут быть
выражены в форме отрицаний строго экзистенциальных высказываний, например: «Не
существует нечерных воронов». Закон сохранения энергии можно выразить в форме «Не
существует вечного двигателя», а гипотезу об элементарном электрическом заряде — в
форме «Не существует иного электрического заряда, чем заряд, кратный элементарному
электрическому заряду». В такой формулировке природные законы являются запретами.
Они не утверждают, что нечто существует или происходит, а отрицают что-то. Они
настаивают на несуществовании определенных вещей или положений дел, запрещая или
устраняя их. Именно в силу этого законы природы фальсифицируемы. Если мы признаем
истинным некоторое сингулярное высказывание, которое нарушает запрещение и говорит о
существовании вещи (или события), устраняемой законом, то этот закон опровергнут.
Отсюда следует, что опровержение теории (строгого универсального высказывания)
формулируется в виде сингулярного экзистенциального высказывания (или, как их еще
называют, базисного высказывания, т.е. высказывания о наблюдаемом событии).
Напротив, строго экзистенциальные высказывания не могут быть фальсифицированы.
Ни одно сингулярное высказывание не может противоречить экзистенциальному
высказыванию «Существуют белые вороны» или «Существует Бог». Это происходит
потому, что все строгие высказывания не имеют пространственно-временной локализации.
Невозможно исследовать «весь мир», чтобы доказать, что чего-то не существует, никогда
не существовало и никогда существовать не будет. Но раз они не могут быть
фальсифицированы, то они не являются эмпирическими и Поппер определяет эти
высказывания как «метафизические». Это не значит, что теории в эмпирических науках не
могут включать такие высказывания. Но чтобы теория стала проверяемой, она должна быть
переформулирована в терминах строго универсальных высказываний или отрицательных
экзистенциальных.
Тем не менее, оба вида строгих высказываний в принципе эмпирически разрешимы,
но только одним способом. Если обнаруживается, что нечто существует здесь и теперь, то
благодаря этому строго экзистенциальное высказывание может быть верифицировано, а вот
строго универсальное — фальсифицировано. То есть наблюдается асимметрия между
универсальными и экзистенциальными высказываниями.
26
О роли философской субструктуры научного знания говорил Т. Кун.
75
Язык науки, также как и все прочие области человеческой языковой практики,
использует метафоры. Например, поведение электрона определяется через две метафоры –
частицы и волны. Традиционно метафора рассматривалась исключительно как языковой
троп, который является объектом интереса филологов. Однако в последнее время благодаря
развитию когнитивистики и исследованию связей языка и мышления метафора стала
пониматься не как литературный прием, а как базовый механизм познания. Именно в таком
ключе метафору исследует Джордж Лакофф, который считает, что метафоры по своей сути
являются феноменами, обеспечивающими понимание. Понимание любой новой ситуации
или задачи сводится к попытке найти в памяти ситуацию, наиболее сходную с данной.
Таким образом, новая задача требует переформулировки в терминах уже имеющегося
знания. Метафора является орудием научного поиска и играет моделирующую роль,
предопределяя способ и стиль мышления об объекте.
Кроме того, метафоры обеспечивает единство знания, ибо метафорические системы
согласованы внутри себя. Смена научных парадигм всегда сопровождается сменой ключевой
метафоры, вводящей новую область уподобления. Интуитивная привлекательность научной
теории зачастую бывает связана с тем, насколько хорошо ее метафоры согласуются с нашим
культурным опытом.
Как показывает Лакофф, то, что мы представляем метафоры в виде элементов (и даже
структурообразующих элементов) научного знания, вовсе не делает последнее менее
рациональным, поскольку метафоры – это специфические инструменты человеческой
рациональности и человеческого познания.
Природа научного знания с позиции Эдинбургской школы
Эдинбургская школа теории науки – это школа социологии научного знания.
Центральные имена этой школы – Барри Барнс (р. 1943) и Давид Блур (р. 1942). А в числе
своих наиболее видных предшественников они называют Т. Куна, Л. Витгенштейна, Роберта
Мѐртона, Мэри Дуглас и Мэри Хесс. Данная школа является антитрадиционалистской и
стремится создать теоретический базис для исследования знания как культурного феномена.
Под знанием понимаются здесь не только научное знание, но все коллективно принимаемые
системы мнений. Социологи знания стремятся выяснить, почему у социальных акторов
возникают именно такие идеи и мысленные категории.
Таким образом, представители этой школы отвергают позицию рационалистов,
согласно которой научное знание для своего объяснения не нуждается в выявлении
социального и/или психологического контекста. Рационалисты считают, что если NN верит в
р, и р истинно и NN знает это, то это достаточное объяснение того, почему NN верит в р.
Этот взгляд предполагает, что у нас действительно имеются универсальные, культурно
независимые стандарты истинности и рациональности. Получается, что рациональные
убеждения (знание) нуждаются в одном типе объяснений, а иррациональные убеждения
(мнения) – в другом. Рационалисты, таким образом, предполагают, что имеется некий
«естественный класс» рациональных убеждений, и мы должны действовать в рамках этого
класса. Только если мы выходим за его пределы, появляется нужда в поиске социальных,
психологических или идеологических причин такого отклонения.
Такой рационалистической позиции придерживались теоретики науки Поппер и
Лакатос, а также историк науки Р. Мѐртон. Все они основывались на условии асимметрии
между рациональным и иррациональным. По их мнению, научное знание не может быть
объектом социологии, поскольку (а) научное знание представляет собой ярчайший пример
рациональности и истинности, и (б) может быть рационально реконструировано в виде цепи
аргументов. Лакатос был одним из самых активных защитников взгляда на историю науки
как на рациональное реконструирование.
Эдинбургская школа стремится порвать с таким условием асимметрии и подготовить
основу для всеобщей социологии знания. Барнс и Блур считают, что все убеждения равны в
отношении причин своей правдоподобности. Это не значит, что социологи научного знания
76
не различают истинных и ложных суждений. Это означает, что для социолога знания и
истинное, и ложное убеждение является в равной степени проблематичным, и их
правдоподобность нуждается в едином методе объяснения.
Свою позицию эта школа обозначает как финитизм (от finite – «конечный»). Главная
мысль финитизма состоит в том, что употребление понятий развивается поэтапно с
помощью процессов, состоящих из успешных «точечных решений». Каждый пример такого
применения должен быть исследован с отсылкой к специфическим, локальным, случайным
детерминантам. В данном смысле финитизм является теорией взаимоотношений между
лингвистическим значением, опытом и применением языка. Его основы составляют пять
утверждений, выработанных Барнсом и Блуром:
1)
Понятия не имеют изначально присущего им, фиксированного, стабильного
значения.
2)
Знание, лежащее в основе решения, является ли понятие правильно
использованным в конкретной ситуации, может быть только знанием того, как
данный термин использовался в ограниченном, конечном числе прошлых
ситуаций.
3)
Это знание, которое является единственным и наиболее доступным,
недостаточно определяет корректное применение понятия. Оно недостаточно
для однозначного определения правильного использования понятия в любой
ситуации. Никакие другие схожие факторы (например, правила) не могут
определять корректность употребления.
4)
Следовательно, вопрос правильно применения понятий в основном зависит от
суждений и решений, принимаемых самими пользователями в конкретной
ситуации («точечные решения»). Такие решения детерминированы
множеством разнотипных факторов: идеология, структура предпочтений,
иллюзии, рационализации, властные и институциональные отношения и т.д.
5)
Данные правила применимы к любому случаю использования понятия в
новых и неизвестных ситуациях, также как в старых и знакомых.
Следовательно, с позиции финитизма, знание об истинном использовании понятия
может быть получено только для конкретной ситуации. Любое использование понятия
является открытым, а это значит, что не может быть никакой бесспорной классификации.
На этом основании финитизм и атакует концепцию рациональной реконструкции научного
знания, ибо эта концепция базируется на негласно заданных предпосылках об использовании
понятий.
Классический взгляд на понятия заключается в том, что они имеют интенцию (смысл) и
экстенцию (область применения, логический радиус). Интенция представляет собой набор
определительных характеристик. Если любой произвольно выбранный феномен имеет эти
характеристики, то он включается в экстенцию применения данного понятия. Экстенция,
таким образом, как бы содержит в себе все феномены (прошлые, настоящие и будущие),
обладающие соответствующими концептуальными характеристиками. Такая точка зрения
имеет три важных следствия:
1)
Смысл, интенция, выражаемая в определении, обуславливает область
применения понятия. На практике это означает, что если у нас возникает
сомнение, может ли конкретный феномен быть отнесен к данному понятию,
решение должно быть принято с помощью определительных характеристик.
Эти характеристики становятся стандартами при урегулировании спорных
ситуаций.
2)
Знание интенции понятия оказывается достаточным для его корректного
использования.
3)
Если интенция понятия четко установлена, то еще перед тем, как понятие
начинает работать, придается априорная установка, какие феномены попадают
под него, а какие нет.
77
Однако существует большое количество пограничных ситуаций, когда нам
действительно неясно, следует ли включать данный феномен в экстенцию того или иного
понятия, или нет. В этих случаях решение нельзя однозначно вывести ни из значения
понятия, ни из характеристик феномена. Тут нам требуются переговоры, конвенции,
относительно того, включать феномен в экстенцию понятия, или нет (ср. случай с «белым» у
Куайна). Понятия, таким образом, имеет «открытую текстуру».
С точки зрения финитистов, такие конвенции имеют место не только в пограничных
случаях, но всегда, когда мы касаемся использования понятий. Эта точка зрения также имеет
ряд следствий:
1) Невозможно обращаться к интенции понятия или к правилам корректного
использования в тех случаях, когда надо принять решение относительно использования
понятия. Каждый случай применения оказывается уникальным. Финитизм отрицает
присущую понятиям раз и навсегда заданную интенцию.
2) Невозможно решить проблему использования понятия до самого использования, как
бы априорно.
3) Феномены окружающего мира не сгруппированы в «естественные классы». Каждый
произвольно выбранный феномен одновременно и похож, и не похож на другие. Любая
группировка и классификация – уникальна, а не универсальна.
Проблема научной рациональности
В современной философии науки проблема рациональности является одной из
самых дискуссионых. Происходит это в более широком контексте критики рациональности,
которая захватывает также и различные области практической философии, в частности,
этику и политическую теорию. Проблема рациональности в настоящее время значима для
самообоснования науки, для поддержания ее эпистемологического статуса.
Такая ситуация вокруг проблемы рациональности связана с тем, что определенная
совокупность идеалов рациональности, которая с момента научной революции в Европе
определяла развитие не только естественных наук, философии, но и европейской культуры в
целом, показала свою противоречивость и несостоятельность во многих моментах. Все это
вызвало различные попытки критического пересмотра самого понятия рациональности, а
также тех форм и норм человеческой деятельности, которые безоговорочно признавались
европейской культурой соответствующими идеалам рациональности.
Эта критика осуществляется в рамках различных направлений и с точки зрения
множества оснований. Подвергается критике как само понятие рациональности, так и
возможность достижения тех идеалов рациональности, которые были сформулированы
проектом Просвещения. Критическая рефлексия должна не только выявлять сложности и
противоречия такого понятия как рациональность, но и конструировать новые модели
рациональности с учетом критики.
Классическое понимание и идеал научной рациональности
Общее определение рациональности какого-либо знания или действия - это их
соответствие наиболее общим принципам разумности (понятие «рациональность»
происходит от латинского «ratio» — разум). Для подхода к проблеме рациональности,
который сформировался в новоевропейской культуре, было характерно представление о том,
что границы «разумности» являются самоочевидными, поэтому расценить какое-либо
знание или действие как рациональное или нерациональное в конечном счете не
представляется проблематичным.
Классическое представление о рациональности сформировалось на основании
«логоцентрической» парадигмы. Согласно этой парадигме, реальность обладает внутренне
разумной и логически непротиворечивой структурой. Такое представление о реальности
предполагает, что законы действующие в мире, не только универсальны, но и линейно
78
детерминированы. Данный способ рассматривать реальность предполагает, что статичная
упорядоченность мира однозначно предпочтительнее, чем какие-либо проявления
хаотичности и неупорядоченности. Мир рассматривается через призму бинарных оппозиций,
одна из составляющих которой — порядок, власть, закономерность занимает доминирующее
положение.
С точки зрения данной парадигмы, существуют неизменные законы мирового
разума, структура которых переносится и на человеческое мышление. Наиболее ясными
проявлением этих универсальных законов в человеческом разуме являются законы
формальной логики, которые рассматриваются не только как основополагающие структуры
человеческого мышления, но и основополагающие принципы бытия за пределами сознания и
познания. Таким образом, рациональным признается все, что соответствует законам
признающейся универсальной логики, то, что не соответствует этим законам, обозначается
как нерациональное, а то, что им противоречит — как иррациональное.
Такой тип рациональности принято называть классическим. Он был доминирующим
в новоевропейской науке с 17 и до конца 19-го века. Формирование данного типа
рациональности началось еще в рамках античной философии, но окончательно он смог
утвердиться только во взаимосвязи с новоевропейским естествознанием, прежде всего, с
механистической картиной мира, которая сформировалась благодаря механике Ньютона.
Согласно ньютоновской картине мира, мир — это, в первую очередь, бесконечное во
всех
направлениях
трехмерное
пространство.
Такое
пространство
является
субстанциональным и абсолютным, поскольку оно существует вне зависимости от материи.
Время, протекающее в данном пространстве, также абсолютно и неизменно. В абсолютных
пространстве и времени существует материя, организованная в виде различных тел. Среди
всех этих тел есть мельчайшие тела, которые уже нельзя разделить на более мелкие тела, это атомы, из которых состоят все остальные тела. Материя сама по себе инертна и пассивна,
- чтобы заставить ее изменяться, необходимо применить к ней некоторую внешнюю силу.
Любое изменение в мире обязательно имеет свою причину, т.е. протекает с необходимостью,
согласно некоторому закону.
Весь существующий мир отображается в сознании субъекта, который, в идеале,
должен быть абсолютным наблюдателем, руководствующимся законами разума. Процесс
познания, который осуществляет такой субъект, в идеале должен быть абсолютно нейтрален
по отношению к существующему объекту. Таким образом, один из ключевых идеалов
классической рациональности — это абсолютная непредвзятость субъекта, который
способен разумно рассматривать реальность, руководствуясь нейтральными и абсолютно
значимыми законами логики.
С
точки
зрения
классической
рациональности,
ценность
логически
непротиворечивого разума и получаемого с его помощью знания — непререкаема и
абсолютна. Логичный разум — это беспристрастный судья в любых аспектах человеческой
деятельности.
Критика классического идеала научной рациональности
Классическая рациональность определяется с точки зрения логически
непротиворечивой разумности, однако разумность и логичность не всегда можно считать
синонимичными понятиями. Логически корректными могут быть
и бессмысленные
умозаключения. В то же время, рациональность может быть определена через такие
признаки, как «целесообразность, эффективность, экономия средств для достижения цели,
гармоничность и согласованность элементов, объяснимость на основании причинноследственных зависимостей, систематичность» и. т.п. Критика рациональности направлена,
прежде всего, на то, что не все знание или не все действия, которые признавались
рациональными с точки зрения классической рациональности, могут считаться таковыми с
точки зрения остальных возможных характеристик рациональности.
79
С точки зрения данной критики, никаких абсолютно надежных и не
пересматриваемых со временем оснований научного знания или политического действия, не
существует. Мышление человека является различным не только в разные исторические
эпохи, но и в разных областях его приложения. Существуют такие области деятельности,
которые вырабатывают собственные критерии рациональности. Если бы и существовала
некая абсолютная вневременная рациональность, то она была бы крайне бедна по своему
содержанию. Исторически же обусловленные требования к рациональности в основном
имеют имплицитный характер: они не формулируются явно, а усваиваются как «дух эпохи»,
«дух среды» и т.п.
Критике подвергается и сам «Проект Просвещения», утвердивший в европейском
самосознании классические критерии рациональности. Одна из центральных идей этого
проекта — идея глубокой внутренней связи между достижением свободы, освобождением
человека от гнета внешних (природных и социальных) обстоятельств и выработкой
рационального знания, используемого для переустройства мира. Рациональное знание
приобретает высокий этический и культурный статус, а рационализация природы и общества
рассматривается как необходимое условие гуманизации.
С точки зрения критической рефлексии над этим просвещенческим идеалом, данный
идеал приводит к узкому и дегуманизирующему сциентизму. Абсолютистское понимание
рационального разума как универсального судьи само оказывается нерациональным, не
приводит к реализации искомых целей. В свете данной критики возможны два варианта
дальнейшего развития представлений о рациональности: отказ от поиска каких-либо
рациональных оснований, которые априори объявляются иллюзорными, или же создание
новых моделей рациональности с учетом критики идеала классической рациональности.
Современные модели рациональности:
1. «Постнеклассическая» рациональность
Рядом отечественных исследователей современная рациональность характеризуется
как «постнеклассическая». Постнеклассический тип рациональности расширяет поле
рефлексии над деятельностью, в область данной рефлексии включаются не только анализ
инструментов, выбранных для исследования, но и исслеование ценностно-целевых структур
научной деятельности. Анализируя стратегии получения научного знания, современные
исследователи эксплицируют связь внутринаучных целей с вненаучными, социальными
ценностями и целями, интерналистские позиции соотносятся с экстерналистскими.
Причиной такого пересмотра позиции исследования рациональности становится
изменение объекта исследования, а также характера этого исследования. Современная наука
ориентирована на исследование уникальных, исторически развивающихся систем, в которые
в качестве особого компонента включен сам человек, познающий наблюдатель. Характерная
черта нового типа рационального мышления - это признание вариативности развития,
необходимости выбора из нескольких альтернатив, когда результат такого выбора не
предопределен заранее, признание ситуативного и контекстуального характера оснований
для выбора той или иной стратегии действий.
2. Рациональность как интерсубъективность
Для современных моделей рациональности также характерна плюралистическая
установка, согласно которой в рамках единого понимания рациональности должны быть
объединены различные стратегии. Например, в модели К. Хюбнера рациональность
обеспечивается различными уровнями интерсубъективности. Интерсубъективность может
предполагать ясность и общее согласие относительно понятий и суждений (семантическая
интерсубъективность), обоснованность суждений фактами и наблюдениями (эмпирическая
интерсубъективность), логическую связность и последовательность (логическая
интерсубъективность), воспроизводимость образцов действия или рассуждения
(операциональная интерсубъективность), общепринятость норм и правил поведения или
оценки (нормативная интерсубьективность). Характерно, что эти виды интерсубъективности
80
не имеют точных дефиниций, а трактуются интуитивно. Общий смысл рациональности как
интерсубъективности зависит от принятых (явно или неявно) конвенций данной культуры.
Это открывает путь к такой расширительной трактовке рациональности, при которой ни
одна из форм интерсубъективности не является доминирующей или парадигмальной.
3. Интерпретация рациональность в неорационализме
Пересмотр классической модели рациональности без отказа от самой категории
рациональности и ее чрезмерной плюрализации предлагает так называемый
неорационализм. Неорационализм — это одно из течений в философии науки второй
половины ХХ века, представленное, прежде всего, работами Г. Башляра. Ключевая работа
Башляра, вышедшая в 1972 году, так и называлась «Новый рационализм».
Исходная идея, представленная в книге Башляра, состоит в том, что сомнение в
возможности получения объективного знания рациональными способами вызвано
некоторыми особенностями современной науки. К числу таких особенностей Башляр
относит отказ от жесткого детерминизма, постоянное использование абстрактных моделей,
для создания которых недостаточно только регистрации непосредственных данных, но
нужно задействовать воображение, создание множества гипотетических моделей. Все это,
однако, не должно стать поводом для отказа от представления о рациональности научного
знания, но, напротив, может стать базисом для нового, более глубокого понимания
рациональности.
Прежде всего, рациональность Башляр понимает как рациональность «открытую»,
поскольку любая «закрытая» рациональность приводит к догматизации, а это противоречит
самому принципу рационального исследования. Поскольку всякое познание — это
аппроксимация, любые претензии на построение окончательной системы знания, основанной
на абсолютно рациональном исследовании, обречены на провал.
Основной принцип рационального мышления, согласно Башляру, состоит в
динамической перестройке существующей системы знания и готовности к ревизии
собственных оснований. Любая система знания, претендующая на рациональность и
объективность, должна содержать в себе потенциальную возможность если не полного
опровержения, то, по крайней мере, изменения. Согласно Г. Башляру, «рационально мы
организуем лишь то, что реорганизуем. Рациональная мысль всегда … занята не только
повторением …, но и реорганизацией, перестройкой». В этом аспекте концепция
рациональности Башляра коррелирует с моделью рационального знания, предложенной К.
Поппером.
4. Коммуникативная рациональность в концепции Ю. Хабермаса
В концепции коммуникативной рациональности Ю. Хабермаса рациональные
действия являются следствием непрерывной коммуникации между индивидами.
Коммуникацию Хабермас понимает не в качестве средства односторонней передачи
информации, но как способ взаимодействия людей в социальной сфере. Атрибутом такого
взаимодействия является, согласно Хабермасу, возможность вести диалог, приводящий к
конструктивному принятию значимых решений.
Способность к диалогу предполагает определенный набор требований к участникам
коммуникации и к характеру коммуникации. Основным таким требованием становится
осознанное стремление участников коммуникации к достижению общего мнения по
определенному вопросу, которое могло бы учесть интересы всех. Такое общее мнение и
должно стать искомым рациональным консенсусом.
Помимо этого от участников диалога требуется соблюдение определенных правил
ведения полемики, общая корректность постановки вопросов и выводов. Очевидно, что все
требования, выдвигаемые к участникам рациональной коммуникации предполагают, что
участники обладают высоким уровнем рефлексивного мышления.
Рациональный консенсус вырабатывается путем дискурса, межсубъектного
обсуждения, в котором участники преодолевают свои собственные субъективные взгляды в
81
пользу рационально мотивированного согласия. Консенсус рождает «сила лучшего
аргумента», приобретающего общезначимость.
5. Концепция респонзитивной рациональности Б. Вальденфельса
Исходя из самого названия концепции рациональности, предложенной Б.
Вальденфельсом, видно, что рациональность формируется в виде ответа на определенный
вызов или вопрос. Согласно Вальденфельсу, и в этом он повторяет всех критиков
классической концепции рациональности, рациональное не является чем-то априорно
предзаданным, изначально присущим всем индивидам. То, что может быть воспринято как
рациональное, формируется только в пространстве взаимодействий между индивидами или
культурами, которые предстают как чужие по отношению друг к другу. Взаимная чуждость
предполагает постоянный вызов или «вопрос» по отношению к другим, на который тем
приходится отвечать. Но этот вызов всегда является взаимным.
Таким образом, формируется пространство пересечения множества отдельных
рациональностей, каждая из которых является ограниченной. Во взаимодействии
формируется некоторая общность установок, предрасположенностей, мировоззрения,
которую все участники данного взаимодействия признают достаточной и рациональной.
Процесс формирования общего поля рациональных взаимодействий никогда не протекает
бесконфликтно, поскольку участники взаимодействия формируют некоторые границы и
правила этого взаимодействия методом проб и ошибок.
Респонзитивная рациональность предполагает определенный набор средств ответа, к
числу которых относятся не только дискурсивно- символические системы, но также и
невербальные средства. Вальденфельс подчеркивает, что рациональный ответ возникает,
прежде всего, не на уровне сложных концептуальных построений, но на телесном уровне:
«Ответом являются так же чувства и телесное желание, а не только слово».
Критерии научной рациональности у К. Поппера и Т. Куна
Положения Карла Поппера легли в основание «критического рационализма». Самое
общее требование Поппера гласит: границы науки должны совпадать с границами
рациональной критики. Образцом и воплощением такой критики служит для Поппера т.н.
«Большая наука», сформированная на рубеже XIX—XX веков, усилиями Дж. К. Максвелла,
Э.Резерфорда, Н.Бора, А.Эйнштейна. Всех их объединяет одна общая черта - они обладали
незаурядной интеллектуальной смелостью и не останавливались перед решительной ломкой
традиции, если того требовали опыт и логика.
Здесь отчетливо слышны отголоски «радикального методического сомнения» Декарта и
требования интеллектуальной смелости эпохи Просвещения. Критический рационализм
призывает направить силу человеческого интеллекта на критику всей действительности. Но
в первую очередь Разум делает объектом критики свои собственные основания. Суждения
разума, каким бы статусом они не обладали, должны быть подвергнуты критической
проверке. Таким образом, рациональность в рамках попперовского проекта полагается, в
первую очередь, как самокритика.
Однако отождествление критики и рациональности далеко не беспроблемно, как
может показаться на первый взгляд. Если рациональность обнаруживается в критике, то и
критика должна доказать свою рациональность. Если одно находит свои основания в другом,
то мы сталкиваемся с логическим кругом. Если принцип рациональной критики является
критерием рациональности, то он сам должен быть подвергнут критике. Что будет
основанием для этой критики? Она должна следовать какому-то другому принципу. Поппер
прекрасно осознавал эту трудность и отмечал, что рационализм, основанный на принципе
критицизма, не обязательно связан с каким-то «окончательным» решением проблемы
обоснованности или оправданности предпосылок критики27.
27
Поппер К. Открытое общество и его враги М. , 1992, Т 1, с. 54
82
Рациональность должна выступать как некая исходная и бесспорно понимаемая
позиция. Только в этом случае будет возможна сама рациональная критик 28. «Можно
сказать, что рационалистический подход должен быть принят и только после этого могут
стать эффективными аргументы и опыт. Следовательно, рационалистический подход не
может быть обоснован ни опытом, ни аргументами». Таким образом, получается, что в
основании рационалистического подхода лежит «иррациональная вера в разум»29.
Итак, рационализм сам нуждается в опоре, но если искать эту опору внутри него же
самого, то логического круга не избежать. Поэтому предпосылкой рациональной дискуссии
следует считать не наличие неких абсолютных и обязательных для всех мыслящих существ
критериев, а готовность участников этой дискуссии признать над собой власть разумного
начала. Ситуация рациональной дискуссии возникает как конвенция и в дальнейшем
поддерживается устойчивыми традициями, регулирующими поведение участников этой
конвенции. Большая наука как раз и является систематическим единством таких традиций.
Установка на рациональную критику и признание непререкаемой власти критериев
рациональности - это не столько методологические регулятивы, сколько моральное credo.
Томас Кун стал лидером тех, кто подверг позицию Поппера основательной ревизии.
Как и Поппер, Кун критикует индуктивизм, кумулятивистский подход к росту научного
знания и другие «догмы эмпиризма». Наука не есть процесс постепенного накопления
бесспорных истин, обретаемых в «чистом» (то есть не зависящем от теоретических догадок
и гипотез) опыте. Рациональность науки не сводится к сумме логических правил
образования и преобразования научных суждений, ценность которых удостоверяется в
процессах «верификации» (опытной проверки).
Вместе с тем Кун, в отличие от преподававшего математику Поппера, был
профессиональным историком науки. Это обусловило иное, чем у Поппера, понимание и
научной рациональности, и существа науки в целом. Свои расхождения с Поппером Кун
озвучил во время доклада на Международном коллоквиуме по философии науки (Лондон,
11—17 июля 1965 г.). Его доклад носил название «Логика открытия или психология
исследования».
Согласно Куну, критика и рациональность заключают союз только в рамках того, что
критике не подлежит, то есть в рамках принятых образцов научной деятельности. Но когда
эти образцы сами становятся объектами критики, этот союз распадается, поскольку такая
критика порывает с принятыми критериями рациональности. Тогда возникает
необходимость искать новую опору в виде новых образцов и основанных на них новых
критериев рациональности. В истории науки почти не бывает периодов «критериального
вакуума», напротив, зачастую мы имеем дело со множеством конкурирующих систем
рациональных критериев. В такой ситуации выбор между ними может определяться не
только когнитивными факторами, но социально-психологической атмосферой, традицией,
убеждениями, а также рядом экстранаучных факторов. Такие периоды Кун назвал
«экстраординарной (или революционной) наукой» и противопоставил ее «нормальной (или
ординарной) науке». Только в условиях последней научная деятельность может иметь
строгие отличительные черты, отделяющие ее от не-науки. В периоды же научных
революций споры между учеными ничем принципиально не отличаются от споров между
философами, ценителями искусства и даже астрологами.
28
Ведь если даже предположить, что существуют абсолютные и бесспорные критерии рациональности (тем
самым выводя их из-под критики), то и в этом случае необходимой предпосылкой всякой рациональной
дискуссии является признание всеми ее участниками этой абсолютности и бесспорности. Но такое возможно
только, если участники являются рационалистами.
29
Там же, с. 67
83
Наука и ценности
Постановка проблемы и ее классическое видение
Традиционный подход к науке проводит четкое различие между суждениями о фактах
(область науки) и суждениями о ценностях (область морали и этики). Лучше всего такая
точка зрения была сформулирована в работе французского математика Анри Пуанкаре «О
науке»: «[научная истина] не может быть во вражде с моралью. У морали и науки свои
собственные области, которые соприкасаются друг с другом, но не проникают друг в друга.
Первая показывает нам, какую цель мы должны преследовать; вторая — при данной цели —
открывает нам средства к ее достижению. Следовательно, они никогда не могут оказаться в
противоречии друг с другом, так как они не могут сталкиваться»30.
Пуанкаре выделял несколько пунктов, в которых наука и ценности могут
соприкасаться, но без взаимного проникновения:
1) Наука сама по себе есть ценность, не важно, универсальная или нет.
2) Ценности и ценностные суждения могут обсуждаться и критиковаться с помощью
научных средств.
3) Возможна этическая оценка и ограничения научной практики и применения науки.
4) Ценности могут играть различную роль в «контексте открытия», то есть в
суждениях, предшествующих принятию теории.
5) Научная практика может потребовать от своих субъектов проявления «научного
этоса».
6) Ученые-практики могут нести моральную или социальную ответственность,
касающуюся их деятельности и сделанных ими открытий.
Во всем остальном наука есть чистая познавательная деятельность, единственной
ценностью в которой выступает само познание. Эта точка зрения соответствует
классическому идеалу научности.
Идеал нейтральной и беспристрастной науки
Ядро идеи науки, свободной от ценностей, было сформулировано в работах
мыслителей XVI века Ф. Бэкона и Г. Галилея. Позиция Галилея требует, чтобы научная
мысль отбросила те исследования, которые основаны на ценностных идеях, таких как
совершенство, гармония, смысл и цель. Объекты естествознания могут быть
охарактеризованы в терминах фундаментального порядка, т.е. лежащих в основе мира
структур, процессов и законов. А те, в свою очередь, могут быть полностью выражены в
количественных понятиях, в математических уравнениях. В объектах фундаментального
порядка нет смысла и нет никаких естественных целей их существования. Если объект
является носителем таковых, то он не может быть представлен как объект фундаментального
порядка. Согласно этой точке зрения, объекты фундаментального порядка онтологически
независимы от человеческого исследования, восприятия и деятельности, от теоретических
взглядов и интересов исследователя. Соответственно, научная теория, чтобы сохранить
объективность и точность по отношению к объектам, должна использовать категории,
свободные от ценностного содержания и его импликаций. Иными словами, следует
использовать только количественные (или материалистические) концепты, но не
теологические, смысловые или интенциональные. Так формируется классическая идея
нейтральности науки: научные теории не должны содержать ценностных утверждений
среди своих логических импликаций.
Бэкон предупреждал об опасностях «идолов разума», которые возникают вследствие
того, что «человеческий разум — это не холодный свет, но его оживляют воля и страсти», а
это заставляет нас видеть в науке то, что нам самим желанно. Если суммировать
эпистемологические и методологические выкладки Бэкона и несколько модернизировать их,
30
Пуанкаре А. О науке. — М., Наука, 1990, с. 200
84
то получим примерно следующее. На протяжении человеческой практики, включающей в
себя как важную составляющую экспериментальную деятельность, мы получаем доступ к
миру, который есть резервуар возможностей. Цель науки — аккумуляция всех возможностей
в данной области. Надежное научное знание — это то, которое основано на процедурах
воспроизведения и согласованности. То, что является результатом наблюдения (лучше —
эксперимента), может быть воспроизведено и определяется через согласование. Этот
результат может, независимо от наших желаний, установок, культурных норм и пр.,
послужить основанием для научных утверждений и выбора теорий. Так возникает идеал
беспристрастности науки.
Однако ценности как таковые не могут быть редуцированы только к моральным
ценностям, а аксиология (наука о ценностях) не равна этике. Поэтому даже у Галилея,
Бэкона и Пуанкаре наука от ценностей не свободна, так как содержит ряд аксиологических
диспозиций, которые необходимы при выборе фактов и построении теорий, и даже могут
выступать в качестве методологических принципов. Сами идеалы нейтральности,
автономности и беспристрастности науки могут выступать как своего рода ценности.
Критика классического подхода
Исходя из сказанного выше, можно сделать вывод, что ответ на вопрос о ценностях в
науке будет варьироваться в зависимости от того, что именно мы понимаем под наукой
(комплекс научных теорий или деятельность научных сообществ), и как мы трактуем
субъекта научного исследования. Традиционный взгляд на науку фокусируется на
развитии самого научного знания, то есть комплекса идей, теорий, гипотез, игнорируя
субъекта познания. О субъекте, конечно, говориться, но это абстрактный субъект —
некоторый безличный "х", носитель и творец знания, на место которого можно подставить
любое имя — Архимеда, Галилея или Резерфорда. Такого взгляда придерживаются,
например, и представители логического позитивизма. Поэтому квинтэссенцию
«бессубъектной науки» можно найти у Поппера в его концепции развития "объективного
знания". Такой подход имеет много плюсов, в частности, мы страхуем себя от множества
проблемных и довольно неудобных моментов, но платим за это осознанной слепотой
(которую, правда, можно истолковать и как разумное самоограничение).
Традиционный подход к науке опирается на традиционный подход к природе знания
как такового. Согласно такому подходу, знание представляет собой группу структурных
единиц (предложения, высказывания), которые образуют функциональные единицы (теории,
гипотезы). Поэтому для анализа знания вполне достаточно логики, исследующей
формальные аспекты мышления.
Но если на место субъекта познания ставится «живой организм» (как в
эпистемологическом конструктивизме Глазерсфельда) или конкретный индивид (как у
Куна), то очевидно, что такой субъект обусловлен не только внутренними законами разума.
Для Куна знание — это не набор интеллигибельных сущностей, обитающих в нетленном
логическом мире, а то, что находится в головах людей, отягощенных не только культурноисторическим контекстом, но и собственными предрассудками. Противники такого подхода
указывают на то, что здесь мы осуществляем дрейф из области собственно философии науки
в область психологии, социологии и пр. Но можно посмотреть на проблему и с другой
стороны, а именно: как такие «неудобные субъекты» все же способны производить то, что
мы называем миром объективного знания?
Вопрос о роли ценностей в науке зависит и от того, говорим ли мы о контексте
открытия, или же о контексте обоснования. Сторонники «науки, свободной от
ценностей», в принципе, признают роль таковых в контексте открытия. Т. Кун различал
открытия, которые делаются в период «нормальной науки» и открытия, которые происходят
в период научных революций. Первые Кун называет «головоломками», поскольку а) для них
существует гарантированное (господствующей парадигмой) решение, б) это решение может
быть получено некоторым предписанным (этой же парадигмой) путем. Поэтому когда
85
ученый терпит неудачу в своих попытках решить проблему, то это — его личная неудача, а
не свидетельство против парадигмы.
Другое дело — открытия, инициирующие научные революции. Их основное свойство
— беспрецедентность. Такой подход опровергает весьма распространенное мнение, что
открытия суть результаты наблюдений и экспериментов. Французский математик Рене Том в
своей статье указывает на то, наблюдение само по себе не может предоставить новые и
плодотворные идеи тем, у кого их нет31. Это означает, что совокупность фактов не может
породить теории. Напротив, имеющаяся теория упорядочивает факты, задает перспективу их
интерпретации и тем самым конструирует некую «картину мира» или научную систему.
Существуют факты, способные вызвать одну и ту же идею у одинаково обученных людей;
существуют факты, которые довольно долгое время ничего «не говорят» ученым, пока не
наступает «просветление» (в данном случае — мутация научной парадигмы) и разум
начинает интерпретировать эти факты и «находить» в них совершенно новые связи. Любое
открытие рождается из такого чувства вещей, которое не только глубоко лично, но и зависит
от состояния разума в данный момент. Следовательно, что субъект, лишенный позиции и
индивидуальных характеристик, попросту не способен к творческой деятельности, которая
является важнейшим компонентом научного познания.
Подход Т. Куна и его критика
Многие философы науки, допуская роль субъективных факторов на этапе открытия или
изобретения новой теории, считают, что в целом эти процессы находятся за гранью
философии науки и иррелевантны по отношению к вопросу о научной объективности.
Объективность, согласно такой позиции, входит в науку через процессы проверки,
подтверждения и опровержения теорий. А эти процессы, в свою очередь, уже не должны
включать субъективных факторов.
Что касается Томаса Куна, то он не только показал несоответствие этой позиции
наблюдениям над реальным течением научной жизни, но и поставил вопрос о полезности
такого разграничения контекста открытия и контекста обоснования. В ситуации выбора мы
подчас имеем довольно весомые основания для каждого из возможных исходов.
Соображения, релевантные в контексте открытия, остаются таковыми и в контексте
обоснования32. Довольно сложно сконструировать алгоритм выбора теории, поскольку
апелляция к стабильному набору объективных критериев есть апелляция к не вполне
достижимому идеалу. Изучая историю науки, Кун установил, что ученые, которые
разделяют заботы и чувства тех, кто изобретает новую теорию, непропорционально часто
оказываются в числе ее первых сторонников и апологетов.
Исходя из исторического субъекта научной деятельности, Кун считает, что
объективные каноны научности всегда воплощаются в человеческих реалиях, изменяющихся
от ученого к ученому. Последние, в свою очередь, возникают из предшествующего
индивидуального исследовательского опыта. Так, например, предпочтение, отданное
Кеплером Копернику, проистекало частично из его (Кеплера) вовлеченности и
неоплатонические и герменевтические течения того времени33.
Оппоненты куновского подхода апеллируют к формуле условной вероятности Байеса,
чтобы показать объективность выбора между конкурирующими теориями. Данная формула
представляет собой следующее:
p(T/E) = p(T&E) / p(E)
31
Том Р. Экспериментальный метод: миф эпистемологов (и ученых?) // Вопросы философии, 1992, № 6, с. 110
Кун Т. Объективность, ценностные суждения и выбор теории. // Современная философия науки. — М., 1996,
с. 69
32
33
Кун Т. Объективность, ценностные суждения и выбор теории. // Современная философия науки. — М., 1996,
с. 68
86
p(T/E) — это условная вероятность теоретического высказывания Т относительно
эмпирического свидетельства Е;
p(T&E) — безусловная вероятность конъюнкции теоретического высказывания и
эмпирического свидетельства;
p(E) — безусловная вероятность эмпирического свидетельства.
Предполагается, что имеется только одно значение р, которое соответствует
объективному выбору и все члены научного сообщества должны прийти к этому значению.
Однако Кун считает, что даже если все алгоритмы исследователей имеют много общего,
невозможно говорить об их абсолютном совпадении. Довольно трудно отрицать влияние
субъективных различий на детерминацию этого гипотетического алгоритма. Приверженцы
«объективного выбора» возразят на это, что с течением времени объем и содержание
свидетельств будет увеличиваться, так что алгоритмы отдельных исследователей будут
сходиться к алгоритму «объективного выбора», постепенно вытесняя субъективные
элементы из процесса решения. Но такая позиция кажется Куну непоследовательной, так как
у нас есть основания утверждать, что с течением времени сходятся величины р,
вычисленные отдельными исследователями по своим индивидуальным алгоритмам, но не
сами алгоритмы. Таким образом, даже тогда, когда специалисты соглашаются между собой,
субъективные факторы не элиминируются.
Между научной практикой и ценностями существуют дифференцированные
диалектические взаимоотношения, поэтому сама постановка проблемы «совместимы ли
наука и ценности» является некорректной. Мысль о том, что наука свободна от ценностей
сама по себе, уже является ценностным суждением.
Современная
наука
характеризуется
почти
исключительным
принятием
материалистических стратегий исследования. Их принятие связано со взаимодействием
когнитивных и социальных ценностей, а также влиянием социальных институтов.
Материалистическая стратегия, характерная как для Нового времени, так и для современной
науки, характеризуется принятием в качестве фундаментальной ценности контроля над
природой. Достижение контроля над материальными объектами стало высшей социальной
ценностью. Эта ценность стала доминирующим и организующим принципом современного
общества и методологией решения социальных проблем. Наука, развиваемая в рамках
материалистических стратегий, является одновременно рациональной и инструментальной,
так как обеспечивает теоретическое руководство технологической практикой.
Хью Лэйси отмечает, что ценность контроля, так высоко котируемая в современном
обществе, не только не подчиняется другим социальным ценностям и идеалам, но и
исключает возможность принятия других ценностей. Более того, социальная ценность
контроля над материальными объектами уверенно распространяется далеко за пределы
науки на все сферы повседневной жизни. Иногда контроль рассматривают как ценность
саму по себе, как силу, использование которой выражает человеческую рациональность. В
другом случае экспансия технологий как современных средств контроля рассматривается
как
призванная реализовать идеалы благосостояния. В таком случае ценности
справедливого социального устройства и стабильного порядка оказываются подчинены
ценности контроля.
Однако практически невозможно рационально выявить превосходство одной ценности
над другой в силу того, что всякая оценка уже предполагает принятие определенной
ценности. На основании экологически ориентированных ценностей, а также ценности
социальной справедливости возникают и развиваются альтернативные течения, критически
настроенные в отношении науки и настаивающие на ее преобразовании.
Если Т. Кун настаивал на несоизмеримости парадигм, то Х. Лэйси, углубив куновский
тезис, настаивает на несовместимости социальных миров, коренящихся в различных
социальных ценностях34.
34
Огурцов А.П. Страстные споры о ценностно-нейтральной науке. Вст. Ст. //Лейси Х. Свободна ли наука от
ценностей? — М., 2001, с. 28
87
Феминистский подход к проблеме ценностей в науке
Одним из наиболее очевидных альтернативных подходов к проблеме в западном
дискурсивном пространстве является феминистский подход к науке, который во многом
опирается на исторический подход Куна, а с другой стороны, на прагматический критерий
истины, установленный У. Джеймсом. Критерий истинности понятий, согласно Джеймсу,
находится в области их практического применения. Это значит, что, если мы выступаем в
качестве сторонников некоей идеи, то необходимо указать на практические последствия ее
применения. То есть, подлинный смысл понятий раскрывается в том, какие изменения в
жизненный путь индивида они вносят, если признаются истинными. Этот подход называется
Прагматическим правилом. Сторонницей этого подхода является феминистский эпистемолог
Элен Лонжино.
Феминистский подход сильнее всего диссонирует с так называемым
«материалистическим подходом» классической науки, ориентированным на ценность
контроля. Классический идеал научности во главу угла ставит взаимодействие субъекта с
материальными объектами. Согласно традиции, идущей от Ф. Бэкона, характерным
отношением субъекта к материальному объекту является контроль. Материалистические
стратегии направлены на то, чтобы создавать теории, направляющие практику на все более
полное проявление контроля как социальной ценности доминирующих социальных
институтов. Все более полный контроль с очевидностью проявляется в создании и
умножении технологических объектов как главных инструментов производственного
процесса, что сказывается на всей структуре человеческой жизни.
Но такой подход не отвечает на вопрос, который является центральным для
феминистской эпистемологии: как и в каком направлении изменяются люди, когда к
современным институтам применяются те или иные стратегии? Таким образом, феминизм
начинает с того, кем являются люди, а не с того, чем являются материальные объекты и
каковы наши отношения с ними. За феминистским подходом скрывается определенная
концепция человеческой природы: люди способны действовать, создавая свои ценности, в
свете своих оценок текущих реалий и действовать столь эффективно, чтобы на основе этих
восприятий производить изменения в себе и обществе35. Эта концепция служит для
обоснования таких приоритетных ценностей, как свобода, автономность, ответственность, а
также рассматривается как частичное оправдание нашего субъективного опыта мышления,
дискурса и выбора.
Но, люди не только суть субъекты, способные действовать в свете знания и интересов.
Они также приспосабливаются к ролям или их отсутствию, а это предполагает подавление
деятельности. Эти обобщения несовместимы, но одинаково необходимы в том смысле, что
одни могут выбрать первый путь (быть полноправными субъектами деятельности), а вторым
приходится выбирать второй (приспосабливаться к роли/ее отсутствию).
Феминизм подчеркивает универсальность деятельности и подвергает сомнению те
подходы к науке в социологии и психологии, которые пытаются обосновать «двойной
стандарт» или бифуркацию выборов врожденными естественными различиями.
Ориентируясь на ценности, альтернативные ценностям контроля, феминистская
эпистемология настаивает на признании следующих параметров в качестве когнитивных
ценностей: эмпирическая адекватность, онтологическая гетерогенность, сложность и
взаимность воздействий, диффузия власти. Следует отметить, что только первый параметр в
целом соответствует доминирующей в современной науке материалистической стратегии.
35
Лейси Х. Свободна ли наука от ценностей? — М., 2001, с. 268
88
Проблема автономности научного знания
Интеллектуальный контекст и стили научного мышления
На современном этапе у нас имеется достаточное количество оснований, которые при
их комплексном применении позволяют отличать научное от ненаучного. Однако
применение современного способа демаркации науки и не-науки весьма затруднительно по
отношению к более ранним периодам. Дело в том, что на становление и развития научного
знания оказывали влияние экстранаучные факторы, в том числе философские концепции и
религиозные учения. Способ демаркации науки и не-науки во многом зависит от общего
интеллектуального контекста эпохи.
Несмотря на то, что наука является особым видом духовной деятельности людей, она
всегда осуществляется в более широком интеллектуальном и культурном контексте. Как
указывает В. С. Степин, сегодня уже не нужно доказывать, что наука в своем
познавательном движении постоянно резонирует с развитием других областей культуры:
искусством, философией, религией и даже обыденным сознанием36. Ближе всего к науке
всегда была философия. Само понятие «теория», которое у нас прочно ассоциируется с
наукой, исходно принадлежит философии. Древние греки под словом «теория» понимали
созерцание, т.е. приобретение знания посредством умозрительных спекуляций. «В развитой
науке философское знание участвует в становлении новых научных теорий и научных
картин мира, опосредуя их включение в поток культурной трансляции. В свою очередь,
после конституирования науки как автономной формы познания, философия испытала на
себе ее огромное влияние»37.
Связь науки с интеллектуальным контекстом эпохи не отрицали даже интерналисты.
От этого контекста зависит сам способ демаркации науки и не-науки. Александр
Владимирович Койре, рассуждая о природе научного знания, указывал на влияние так
называемой философской субструктуры, или «философского горизонта», сопровождающего
каждую научную теорию.
Позитивистски ориентированные исследователи считают такое влияние уделом
далекого прошлого. Прогресс научного знания они связывают с освобождением от «тирании
философии» и переходом на твердую эмпирическую основу. Даже признавая наличие
философских спекуляций (или паранаучных идей) у Кеплера, Ньютона и Максвелла, в них
видя лишь подпорки, как бы «строительные леса» науки, которые устраняются следующими
поколениями ученых. Однако, по мнению А.В. Койре, философская субструктура помогает
ученым конструировать и формулировать концепции, и даже если она в дальнейшем
отбрасывается, то зачастую для того, чтобы быть замененной новой субструктурой.
В своем историческом развитии наука взаимодействует не только с философией. Все
сферы культуры резонируют с изменениями, происходящими в науке, и все эти
«кооперативные эффекты» развития культуры прослеживаются особенно ярко на
переломных этапах, когда меняется тип научной рациональности38.
Если мы будем придерживаться «широкого подхода» к пониманию науки, согласно
которому выделяют архаический, средневековый, новоевропейский и современный периоды
ее развития, то увидим, что каждая эпоха накладывает свой отпечаток на специфику
научного знания и познавательных практик, определяя стиль научного мышления. Стиль
научного мышления (СНМ) – это единая система принципов, которая принимается учеными
как образец, канон, эталон мыслительной деятельности. Стили научного мышления
выполняют множество функций, среди которых следует выделить следующие:
- регулятивная и нормативная, поскольку СНМ включает в себя как правиларекомендации, так и правила-запреты;
36
См.: Степин В.С. Теоретическое знание. Структура, историческая эволюция. – М., 2000
Там же, с. 5
38
Степин В.С. Теоретическое знание. Структура, историческая эволюция. – М., 2000 , с. 5
37
89
- критическая, или функция оценивания теоретических построений и их проверки;
- селективная, т.е. функция выбора гипотез (теорий), методов и категориального
аппарата;
- вербальная, т.е. функция оформления фактуального и теоретического знания на
принятом языке науки;
- предсказательная, т.е. функция определения возможных идей, методов и направлений
исследования.
Марк Борн, исследуя стили научного мышления, предложил собственную
периодизацию. Он определил стили мышления как общие тенденции мысли, изменяющиеся
очень медленно и образующие определенные философские периоды с характерными для них
идеями во всех областях человеческой деятельности, в том числе и в науке 39. Борн выделил
три стиля в истории научного познания. Основаниями для периодизации послужило
изменение субъектно-объектных отношений. Первый стиль, по Борну, зародился в
античности и продолжал функционировать в Средние века. Для него характерен такой склад
мысли, когда объект и субъект познания еще неразрывны, недостаточно дифференцированы.
Второй стиль Борн называет «ньютоновским». Небесная механика Ньютона исходила из
того, что внешний мир – это наблюдаемый нами объект, существующий независимо от нас,
наблюдающих субъектов. На основании жесткого противопоставления субъекта и объекта,
постулируемого в философской системе Декарта, Ньютон сделал вывод о том, что
существует способ исследовать явления, не вмешиваясь в их течение. Третий стиль связан с
идеей квантовой энергии, обнародованной М. Планком. Согласно квантовой физике, в
случае измерения сопряженных пар величин (энергия – время, импульс - координата)
невозможно получить сведения о системе самой по себе и ответ всегда будет зависеть
отрешения наблюдателя. Борн пишет: «Мы больше не верим в возможность отделить знание
от нашего решения, мы знаем, что сами всегда являемся одновременно и зрителями и
актерами в драме жизни»40. Кроме трансформации субъектно-объектных отношений Борн
учитывал и изменения в типе детерминации: жесткая детерминация в классической
(новоевропейской) науке и более сложное представление о детерминации, допускающее
«вторжение случая».
Социальный контекст
В середине 70-х гг. прошлого века произошел существенный сдвиг в проблематике,
методах и характере философии науки. Этот сдвиг связан с именами Т. Куна, И. Лакатоса и
П. Фейерабенда. Был совершен переход от анализа структуры научного знания к изучению
роста науки с выдвижением на первый план социологических параметров.
Исторический подход (противостоящий логическому), основателем которого стал Кун,
позволяет в известной степени перекинуть мосты между собственно философией науки и
социологией науки.
Вопрос об автономности науки гораздо менее проблематичен, если всю науку сводить к
комплексу научных теорий. Но мы не можем в достаточной мере понять сами теории, если
совершенно отвлечемся от процессов, в которых они рождаются, проверяются,
трансформируются и взаимодействуют друг с другом. Научные теории — это продукт
инструментальной научной практики, и наши когнитивные подходы к ним формируются в
рамках этой практики. Следовательно, мы не можем говорить о субъекте науки как об
абстрактном мыслителе. Субъект науки — это ученый, член научного сообщества,
вовлеченный в соответствующую практику научными институтами различного типа.
Научные институты, в свою очередь, зависят от других институтов, которые обеспечивают
необходимые материальные и социальные условия для научной деятельности.
39
40
Борн М. Философия в жизни моего поколения. – М., 1963
Там же, с. 234
90
Вопрос об автономности науки как особого института тесно связан с тем, что А.
Пуанкаре определил как «этос ученого». Т. Кун писал, что «одним из строжайших, хотя
неписанных, правил научной жизни является запрет на обращение к властям и народу в
научных вопросах». Это значит, что только члены научного сообщества обладают
уникальной профессиональной компетенцией и являются исключительными арбитрами
научных достижений. Соответственно, только они могут диктовать правила игры.
Однако существует простой механизм вторжения прочих социальных институтов на
территорию науки, например, ограничение или поощрение исследований, связанных с
интересами этих институтов. Следовательно, необходимы некоторые контр-механизмы,
действующие в научной практике. Отсюда и возникает идея автономности научной
практики, которая должна выступать как непременное условие беспристрастности и
нейтральности. Требование автономности предполагает не только передачу абсолютной
власти научному сообществу в плане постановки проблем и оценки теорий, но и в плане
определения квалификационных требований к членам сообщества и контроля над
содержанием научного образования. Но это означает требование некоего «этоса ученого»,
что в свою очередь выступает как ценность.
Сама идея автономности науки имеет этический компонент, так как возникает в
противовес внешнего давления на науку, которое выразилось в суде над Галилеем,
инквизиции, деятельности креационистов, а также в готовности самих ученых участвовать в
специальных исследованиях ради национальной безопасности, сохранять свои результаты в
секрете, следуя государственным интересам или соображениям корпоративной выгоды.
Но есть определенный тип «вмешательства извне», который не только не порицается,
но напротив, приветствуется: это финансирование науки и научных проектов. В этом случае
исследовательские приоритеты формируются не в соответствии с внутренней динамикой
науки, а на основе соглашений с носителями вненаучных ценностей и интересов. Все это
делает идею «этоса ученого» довольно уязвимой.
91
РАЗДЕЛ 3. МОДЕЛИ РАЗВИТИЯ НАУЧНОГО ЗНАНИЯ
На современном этапе философы науки выделяют два подхода к научному знанию:
нормативный и исторический. Каждый из них предлагает свои идеалы и стандарты
научности. Нормативный подход начал складываться параллельно с возникновением в
Новое время самой науки современного типа. Те, кто следует ему, сначала создают
идеальную модель, а потом стараются уложить в нее реальную науку. Альтернативный,
исторический подход, был предложен уже в середине XX века Томасом Сэмюэлем Куном
(1922 - 1996), который старался исходить в своих построениях из реального развития науки.
Кун понимал науку не просто как набор некоторых знаний, но как деятельность по
получению знаний, протекающую в определенных условиях. Поэтому-то подход Куна
положил начало еще одному направлению – социологии науки.
Нормативный подход
В рамках нормативного подхода выделяют три модели научного знания, каждая из
которых предлагает свои идеалы научности и научного знания: дедуктивнорационалистическая модель, индуктивная модель и гипотетико-индуктивная модель. Первые
два сложились еще в Новое время, когда в философии дедуктивные и индуктивные методы
находились в определенном противоречии друг с другом, что явилось причиной
возникновения двух крупнейших направлений: рационализм (континентальная традиция) и
эмпиризм (англоязычная традиция).
Дедуктивно-рационалистическая модель
Эта модель сложилась в рамках философии Рене Декарта (1596 - 1650), основателя
новоевропейского рационализма. Декарт развивал рационалистические тенденции,
заложенные еще в античности, согласно которым мышление (или разум, ratio) является
единственным источником и гарантом достоверного знания. Критерием истины Декарт
считал ясное и отчетливое восприятие. Максимальной ясностью обладает лишь
непосредственное восприятие разумом своего идеального объекта (т.е. объекта мыслимого).
Восприятие физического объекта такой ясности не достигает, поскольку является
опосредованным органами чувств. В качестве критерия достоверности научного знания
Декарт выдвигал дедуцируемость (т.е. выводимость) этого знания из некоторого
самоочевидного суждения. В поисках абсолютно достоверного суждения он поставил под
сомнение почти все «истины» своего времени: законы науки, аксиомы математики и даже
принцип бытия Бога. Декарт пришел к мысли, что искомой основой научного знания
(достоверного знания, а значит и знания вообще) служит суждения «Я мыслю,
следовательно, существую». Сомневаться в этом суждении – значит сомневаться в самом
акте сомнения (т.к. это сомнение – модус мышления), а это невозможно: сомневаясь, я лишь
подтверждаю истинность этого положения. Исходя из этого суждения, Декарт вывел
принципы своей метафизики и физики. Правда, вывести всю физику из исходного
положения путем дедукции Декарт не смог (а может, и не стремился). Поэтому эта наука в
его формулировке наряду с достоверными принципами включает и гипотезы.
Практически все философы Нового времени усвоили декартовское понимание науки
как достоверного знания, построенного путем дедукции из самоочевидных принципов,
поэтому критика декартовского идеала, развернувшаяся в конце 17 – начале 18 века, носила
и характер самокритики. Эта критика развернулась, в первую очередь, в рамках британского
эмпиризма. Джон Локк значительно сужает сферу достоверного знания, и для него
собственно сферой науки были лишь некоторые философские положения и аксиомы
математики. Джордж Беркли еще больше подорвал декартовский идеал. Хотя Беркли
признавал наличие в природе определенных законов, он не мыслил их такими строгими, как
Декарт. И, наконец, Д. Юм при всем своем уважении к идеалу достоверного знания не нашел
92
ни одного положения, которое бы можно было считать абсолютно достоверным. В науке, по
мнению Юма, мы вынуждены довольствоваться той же степенью определенности, что и в
обыденной жизни.
Индуктивная модель
Эта модель сложилась в рамках философии эмпиризма, согласно которой
единственным источником достоверного знания о мире является наш опыт. Интерес к опыту
как источнику знания возник еще в позднее средневековье (например, Вильям Оккам и его
последователи). На заре Нового времени эту традицию поддержал Френсис Бэкон (15611626), считавший, что индукция, то есть движение от конкретных случаев, которые мы
имеем в опыте, через абстрагирование к обобщениям – это единственно возможный способ
получения научного знания. Дедукцию как метод познания Бэкон связывал со средневековой
традицией, опиравшейся на силлогистику Аристотеля. Такой метод Бэкон считал
непродуктивным, поскольку он лишь применяет к конкретным случаям уже известное, но не
способен открыть нечто действительно новое.
Как и Декарт, Бэкон считал, что научное знание должно строиться на аксиомах
(абсолютно достоверных положениях). Только эти аксиомы, по Бэкону, должны вытекать не
из внутренних законов разума, а непротиворечиво следовать из опыта. Мышление наше не
может служить абсолютным гарантом истины, поскольку оно затуманено и порабощено
«идолами», то есть предрассудками. Преодолеть их можно, лишь обращаясь к опыту.
Простейшим случаем индуктивного метода является так называемая полная индукция,
когда перечисляются все предметы данного класса и обнаруживается некое общее для них
свойство. Однако роль полной индукции в науке очень невелика, так как научные гипотезы
выдвигаются, как правило, относительно бесконечного класса объектов, или же
относительно класса, включающего столь большое число объектов, что их полное и
исчерпывающее перечисление невозможно. Гораздо чаще приходится прибегать к неполной
индукции, когда на основе наблюдения конечного числа фактов делается общий вывод
относительно всего класса данных явлений. В основе неполной индукции лежит заключение
по аналогии, а оно всегда носит лишь вероятный характер, но не обладает строгой
необходимостью.
Бэкон пытался сделать неполную индукцию по возможности более строгой, и создать
метод так называемой «истинной индукции». Для этого Бэкон считал необходимым искать
не только факты, подтверждающие определенный вывод, но и факты, опровергающие его.
Таким образом, естествознание должно пользоваться двумя средствами: перечислением и
исключением, причем главное значение имеют именно исключения. Должны быть собраны
по возможности все случаи, где присутствует данное явление, а затем все, где оно
отсутствует. Если удастся найти какой-либо признак, который всегда сопровождает данное
явление и который отсутствует, когда этого явления нет, то этот признак можно считать
«природой» или «формой», данного явления. С помощью своего метода Бэкон, например,
нашел, что «формой» теплоты является движение мельчайших частиц тела.
Бэконовский призыв обратиться к опыту и эксперименту стал своего рода лозунгом для
основателей Лондонского естественнонаучного общества, куда вошли творцы новой науки Р. Бойль, Р. Гук, И. Ньютон и другие. Однако, как говорилось выше, индуктивная модель
Бэкона имеет общую черту с рационально-дедуктивной моделью Декарта: и тот, и другой
полагали, что общий фонд научного знания состоит из абсолютно достоверных положений,
количество которых увеличивается со временем, но сами они не могут быть подвергнуты
критической ревизии. Поэтому критика «декартовского идеала» по многим положениям
будет касаться и «бэконовского идеала».
93
Гипотетико-индуктивная
модель:
верификационистский
вариант
неопозитивистов
Эта модель возникла в первой половине XX века и порождает два подхода к критериям
научности: верификационизм и фальсификационизм.
Верификационизм (то фр.
verification, образованного от двух латинских слов: verus – «истинный» и facere – «делать»)
возникает в рамках логического позитивизма, причем верификация выступает критерием не
только научности, но и познавательной ценности вообще. Верификация необходима только
для синтетических высказываний, которые требуют в силу своей природы обращения к
внеязыковым фактам. Аналитические же высказывания тавтологичны и не являются
высказываниями науки в полном смысле этого слова.
Эмпирическая верификация, то есть проверка на истинность научной гипотезы при
помощи эксперимента или наблюдения, предполагает, что, в случае истинности гипотезы,
всегда, как только возникает описанная ею ситуация, должен наблюдаться и
соответствующий эффект. На этом основан предсказательный потенциал научного знания.
Компромиссы здесь неуместны: эффект либо наблюдается всякий раз, либо гипотеза неверна
или неполна. В то же время верификация возможна только в отношении нумерического, то
есть конечного, класса объектов. У нас не возникало бы никаких сложностей, если бы в
научном познании гипотезы выдвигались относительно таких классов объектов, и всякий раз
была бы возможна полная индукция. В действительности, как было сказано выше, в науке
такое случается крайне редко. Научные законы верификации вообще не поддаются в силу
своей универсальной общности (они относятся к бесконечному классу объектов).
Следовательно, верификационистский подход ведет к исключению законов из структуры
научного знания, а это невозможно (наука – это не набор фактов).
Гипотетико-индуктивная модель: фальсификационистский вариант К.
Поппера
Научный закон, или гипотезу невозможно окончательно подтвердить путем
эмпирических проверок, зато для ее опровержения, или фальсификации, достаточно одного
случая. Это положение легло в основу другого направления – фальсификационизма (от лат.
falsificare – подделывать; в данном случае «фальсификация» означает опровержение
теоретического положения ссылкой на эмпирический факт, противоречащий данной теории).
Это направление возникает в русле фаллибилизма (от англ. fallible – «погрешимый»).
Фаллибилизм – это, по сути дела, философская позиция, согласно которой все теории
ошибочны, хотя бы потенциально. Фаллибилизм характеризует в целом неклассический
взгляд на природу научного знания, свойственный современной философии науки. Однако
эта позиция имеет свои истоки в более ранних традициях, в частности, в критике
декартовского идеала достоверности как основы научного знания, предпринятой
британскими эмпириками XVII – XVIII веков. Но критика британских эмпириков, и в
частности Д. Юма, носила деструктивный характер. Конструктивная же критика впервые
была предложена американским философом Чарльзом Сандерсом Пирсом (1839 – 1914 гг.),
которого и принято считать основателем фаллибилизма. Согласно Пирсу, познание не
обязательно должно начинаться с самоочевидных истин, оно может начинаться с любых
положений, в том числе и с ошибочных. Научное познание, с точки зрения Пирса, - это
«жизненный процесс», в ходе которого мы заняты предположениями и проверками,
вызывающими критические дебаты. Знание всегда гипотетично, вероятностно. Вероятность
научного знания может повышаться в ходе корректировки выдвинутых положений, но она
также и понижается когда выдвигаются новые предположения.
В XX веке эти идеи развил Карл Раймунд Поппер (1902 – 1994 гг.), который ввел
критерий фальсифицируемости в число самых важных критериев научного знания,
используя который, мы можем, в частности, отличить науку от ненауки. Научным является
только такое знание, которое принципиально может быть опровергнуто. Если некое знание
позиционирует себя как принципиально неопровергаемое, то мы имеем дело не с наукой, а с
94
чем-то другим, например, с религиозными догматами. Фальсификация как критерий
научности выгодно отличается от верификации уже потому, что не приводит в своем
использовании к вытеснению теории и научных законов.
Эмпирические науки, согласно Попперу, это системы теорий. Поэтому логику
научного знания можно определить как теорию теорий. Научные теории являются
универсальными высказываниями. Подобно всем лингвистическим образованиям, они
представляют собой системы знаков или символов. Теории — это сети, предназначенные
улавливать то, что мы называем «миром», для осознания, объяснения и овладения им. Мы
стремимся сделать ячейки сетей все более мелкими.
Принимая во внимание такое определение эмпирической науки, становится понятным
стремление Поппера найти такой критерий научности, который не приводил бы к
исключению из сферы науки теорий и гипотез, как это произошло у сторонников
логического позитивизма вследствие использования ими верификации как критерия
научности.
Первый вопрос, который Поппер поставил в своей работе «Логика и рост научного
знания», это вопрос о логике развития науке. Поппер, также как и логические позитивисты,
считал, что судьба научной теории должна определяться только через ее отношение к
фактам. Однако остается вопрос, каков тип связи между этими двумя важнейшими
элементами научного знания? Традиционно выделяют два типа логической связи:
индуктивный и дедуктивный. Индуктивная логика предполагает, что теории возникаю как
результат наблюдения фактов. Вывод называется «индуктивным», если он направлен от
сингулярных высказываний (иногда называемых также «частными высказываниями») вроде
отчетов о результатах наблюдений или экспериментов к универсальным высказываниям
вроде гипотез или теорий.
Здесь следует обратить внимание на то, что Поппер интересуется именно логикой
познания, тщательно отделяя ее от психологии познания. Физические объекты и состояния
не входят в предметное поле логики, туда входят только высказывания об этих объектах
(универсальные и сингулярные).
С логической точки зрения, оправданность выведения универсальных высказываний из
сингулярных отнюдь не очевидна: вывод может быть ложным, каким бы ни было
количество сингулярных высказываний (и, следовательно, согласующихся с выводом
фактов). Сколько бы примеров появления белых лебедей мы ни наблюдали, все это не
оправдывает заключения: «Все лебеди белые». Поппер считает, что трудности,
возникающие с индуктивными методами, непреодолимы, и потому он не признает само
существование индуктивной логики, считая ее мифом.
Таким образом, единственный признаваемый Поппером метод проверки теорий – это
дедуктивный метод. Это значит, что гипотезу или теорию можно проверить эмпирически
только после того, как она была выдвинута. Но с дедуктивной логикой связана другая
трудность: дедуктивные отношения не создают связей между теорией и фактами, ведь
факты – это не следствия из теории! Таким следствием являются другие теоретические
положения (гипотезы и предсказания), которые просто совпадают с фактами, что и
фиксирует эмпирическая проверка. При этом истинность следствий сама по себе не
гарантирует истинность основного положения.
Проанализировав эти трудности, Поппер обратился к одному из модусов
силлогистики Аристотеля, называемому modus tolens: Если А, то В. Пусть А – это теория, а
В – следствия, наблюдаемые эмпирически. Если опровергается следствие, то опровергается
и теория. Следовательно, значение имеют только опровергающие факты, и зависимость
научного знания от опыта имеет только негативное значение. Это – базовое положение
фальсификационизма Поппера. В его рамках критерием научности является способность
теории входить в противоречия с фактами, то есть принципиальная возможность ее
опровержения.
95
Если суммировать взгляды Поппера, их можно выразить в трех основных понятиях
его системы.
Первое понятие – это фальсифицируемость. Оно означает, что в связи с теорией
мыслится не только совокупность эмпирических данных, подтверждающих ее (тех данных,
которые можно дедуктивно вывести из теории, предсказать), но и совокупность
«потенциальных фальсификаторов» - еще не зафиксированных эмпирических свидетельств,
противоречащих этой теории.
Эмпирический базис. Совокупность всех эмпирических свидетельств, которые могут
подтвердить или опровергнуть теорию. Каждое такое свидетельство формулируется в виде
базисного предложения, которое по своей логической структуре имеет вид сингулярного
экзистенциального предложения (то есть оно должно описывать существование единичного
факта). При этом следует иметь в виду, что простая фиксация экспериментатором своего
наблюдения еще не будет являться базисным предложением. Чтобы стать таковым,
результат наблюдения должен быть признан сообществом ученых.
Принятие
опровергающего базисного предложения, по Попперу, означает принятие некоторой
«фальсифицирующей гипотезы», то есть альтернативной гипотезы.
Корроборация. Допускаемый Поппером тип трактовки подтверждения гипотезы.
Корраборация (corroboration)
в отличии от подтверждения (confirmation) в стиле
неопозитивистов (верификационистов) не повышает вероятности подтверждаемой гипотезы.
Корроборированной считается гипотеза, из которой удалось вывести некоторые
эмпирические свидетельства.
Положения Поппера легли в основание «критического рационализма». Самое общее
требование Поппера гласит: границы науки должны совпадать с границами рациональной
критики. Образцом и воплощением такой критики служит для Поппера т.н. «Большая
наука», сформированная на рубеже XIX—XX веков, усилиями Дж. К. Максвелла,
Э.Резерфорда, Н.Бора, А.Эйнштейна. Всех их объединяет одна общая черта - они обладали
незаурядной интеллектуальной смелостью и не останавливались перед решительной ломкой
традиции, если того требовали опыт и логика.
Согласно Попперу, научное познание начинается не с наблюдения и фактов, а с
постановки проблем, с напряженности между знанием и незнанием. Свой подход в проблеме
как форме научного знания Поппер разрабатывал в рамках учения о «трех мирах». Три мира,
или универсума, - это мир физических объектов и состояний, мир ментальных состояний и
мир объективного содержания мышления. Концепция «третьего мира» перекликается с
платоновским учением об идеях, объективным духом в концепции Гегеля и объективного
содержания мышления у Фреге. В то же время Поппер выступает против объективноидеалистической интерпретации «третьего мира». Для него этот мир состоит из продуктов
человеческого духа, получивших в некотором смысле самостоятельное, отчужденное
существование. Сюда относится язык, литература, мифы, научные идеи, к этому миру
принадлежат конкурирующие теории, критические аргументы, гипотезы. Научные проблемы
и проблемные ситуации также помещаются Поппером в число «обитателей» третьего мира.
Сюда входят даже те проблемы, которые, по выражению Поппера, существуют объективно,
но пока еще не сформулированы и не вербализированы. Обнаружение и решение этих
проблем происходит при взаимодействии всех трех миров.
Поппер различает объективный и психологический аспекты проблемы, причем
последний его мало интересует, поскольку конкретный ученый, занимаясь той или иной
проблемой, не всегда точно может сформулировать, в чем она состоит. Так, Иоганн Кеплер
считал, что занимается обнаружением мировой гармонии сотворенной Богом Вселенной,
тогда как объективный смысл проблемы состоял в нахождении математического описания
движения планетарной системы из двух тел.
96
Историческая модель науки Томаса Куна
Карл Поппер был последним, кто пытался вывести монокритерий научной
деятельности. Томас Кун на основании исторического подхода показал, что научность
проверяется не только путем отсылки к фактам, но и ко всей системе научного знания.
Таким образом, для определения научности мы должны стать на позиции комплексного
подхода, исследующего функционирование научных парадигм и научных сообществ.
Понятие научной парадигмы и нормальная (ординарная) наука
Парадигма – это ключевое понятие куновской концепции науки. Парадигмой можно
назвать одну или несколько фундаментальных теорий, получивших всеобщее признание и в
течение какого-то времени направляющих научное исследование. Примерами подобных
парадигмальных теорий являются физика Аристотеля, геоцентрическая система Птолемея,
механика и оптика Ньютона, кислородная теория горения Лавуазье, электродинамика
Максвелла, теория относительности Эйнштейна, теория атома Бора и т. п. Таким образом,
парадигма воплощает в себе бесспорное, общепризнанное знание об исследуемой области
явлений природы.
Но под парадигмой Кун понимает не только некоторое знание, выраженное в законах и
принципах. Создатели парадигм не только формулируют теории, они еще решают одну или
несколько важных научных проблем, и тем самым создают образцы того, как научные
проблемы вообще следует решать. Парадигма дает набор образцов научного исследования в
конкретной области — в этом заключается ее важнейшая функция.
Следующая функция парадигмы состоит в том, что она создает критерии научности.
Задавая определенное видение мира, парадигма очерчивает круг проблем, имеющих смысл и
решение; все, что не попадает в этот круг, не заслуживает рассмотрения с точки зрения
сторонников парадигмы. Вместе с тем, парадигма устанавливает допустимые методы решения
этих проблем. Таким образом, она определяет, какие факты могут быть получены в
эмпирическом исследовании, — не конкретные результаты, но некоторый тип фактов.
Чтобы стать парадигмальным, научное достижение должно обладать следующими
характеристиками:
1)
Быть беспрецедентным, дабы на долгое время отвадить ученых от поисков
альтернативных моделей.
2)
Быть открытым, то есть должно наличествовать проблемное поле, в рамках
которого новые поколения ученых смогли бы находить для себя пока не
решенные проблемы.
Любой научной работе, согласно Куну, предшествует принятие некоторой
метафизической системы. «Едва ли любое эффективное исследование может быть начато
прежде, чем научное сообщество решит, что располагает обоснованными ответами на
вопросы, подобные следующим: каковы фундаментальные единицы, из которых состоит
Вселенная? Как они взаимодействуют друг с другом и с органами чувств? Какие вопросы
ученый имеет право ставить в отношении таких сущностей и какие методы могут быть
использованы для их решения?»41. Ответы на вопросы подобного рода и дает метафизика. Как
и через какие элементы метафизика входит в структуру научного знания, Кун иллюстрирует
на примере «дисциплинарной матрицы». Такая матрица, постулируемая Куном в целях
уточнения понятия парадигмы, включает в себя элементы трех основных видов:
- модели и онтологические интерпретации;
- символические обобщения, или законы;
- образцы решения проблем.
Онтологическая интерпретация указывает те сущности, к которым относятся законы
теории. Символические обобщения и их принятая онтологическая интерпретация, если она
эксплицирована в определенных утверждениях, образуют, явный метафизический элемент
41
Кун Т. С. Структура научных революций. М., 1975, с. 20
97
парадигмы. Однако еще большую роль в парадигме играет «неявная» метафизика, скрытая в
примерах и образцах решений проблем и в способах получения научных результатов.
Таким образом, метафизические предположения являются необходимой предпосылкой
научного исследования. Неопровержимые метафизические представления о мире явно
выражены в исходных законах, принципах и правилах парадигмы. И, наконец, определенная
метафизическая картина мира неявным образом навязывается сторонниками парадигмы
посредством образцов и примеров.
Вербально сформулировать парадигму невозможно, поскольку она несет в себе
компонент неявного знания. К парадигме можно только приобщаться и через это приобщение
понять ее.
С понятием парадигма тесно связано понятие научного сообщества. Стать членом
научного сообщества можно, только приняв и усвоив его парадигму. Если вы не разделяете
веры в парадигму, вы остаетесь за пределами научного сообщества. По этой причине научное
сообщество отторгает новаторов, покушающихся на основы парадигмы.
С понятием научного сообщества Кун ввел в философию науки принципиально новый
элемент — исторический субъект научной деятельности, ведь научное сообщество — это
группа людей, принадлежащих определенной эпохе, и в разные эпохи эта группа состоит из
разных людей. Именно поэтому исторический подход Томаса Куна создал основу для
разнообразных смычек между философией науки, психологией науки и социологией науки,
открыв для исследователей новые проблемные области. Но по этой же причине подход Куна
подвергался и продолжает подвергаться жесткой критике со стороны приверженцев более
традиционного понимания развития науки. В частности, Поппер обвинял Куна в релятивизме.
Традиционно философия науки смотрела на науку и ее историю как на развитие
знаний, идей, гипотез, экспериментов, отвлекаясь от конкретно-исторического субъекта
познания. О субъекте, конечно же, упоминали, но это был абстрактный субъект — чистое
Рацио, обезличенное носитель и творец знания, на место которого можно, в принципе,
подставить любое имя — Архимеда, Галилея или Ньютона. Поппер очень ярко выразил это
пренебрежение субъектом, развив концепцию «объективного знания», не зависящего от
субъекта. Кун порывает с этой, платонической по сути, традицией, ибо для него знание — это
не то, что существует в нетленном логическом мире, а то, что находится в головах конкретных
людей определенной исторической эпохи.
Итак, основанием для принятия той или иной парадигмы служит согласие научного
сообщества. В свою очередь, парадигма сплачивает научное сообщество и обеспечивает
чувство интеллектуального комфорта для его членов. Этот комфорт обусловлен тем, что
парадигма дает ответы на ключевые вопросы об устройстве мира. То есть парадигма
порождает уверенность, что наука, в общем и целом, знает, что такое мир, неизвестны пока
только частности. В условиях такого психологического комфорта и функционирует то, что
Кун назвал нормальной или ординарной наукой.
Именно такое состояние, согласно Томасу Куну, является наиболее обычным и
характерным для науки. В отличие от Поппера, считавшего, что ученые постоянно думают о
том, как бы опровергнуть существующие и признанные теории, и с этой целью стремятся к
постановке опровергающих экспериментов, Кун убежден, что в реальной научной практике
ученые почти никогда не сомневаются в истинности основоположений своих теорий и даже не
ставят вопроса об их проверке.
Утвердившаяся в научном сообществе парадигма первоначально содержит лишь
наиболее фундаментальные понятия и принципы и решает лишь некоторые важнейшие
проблемы, задавая общий угол зрения на природу и общую стратегию научного исследования.
Последующие поколения ученых прописывают отдельные детали этой картины. Кун выделяет
следующие виды деятельности, характерные для нормальной науки:
1) Выделяются и уточняются факты, наиболее показательные с точки зрения парадигмы. Важно иметь в виду, что речь идет не об открытии принципиально новых фактов
(этим нормальная наука как раз и не занимается), а об уточнении уже известных.
98
2) Ученые ищут факты, которые служили бы непосредственным подтверждением
парадигмы. Разумеется, сами эти факты уже парадигмой предсказаны. Однако эта
деятельность требует много усилий, поскольку подразумевает сопоставление научной теории
с действительностью.
3) Третий вид деятельности связан с разработкой парадигмальной теории с целью
устранения существующих неясностей.
4) Разработка парадигмы включает в себя не только уточнение фактов, но и
установление количественных законов. В отсутствие парадигмы, направляющей исследование,
подобные законы не были бы сформулированы.
5) Наконец, обширное поле для применения сил и способностей ученых предоставляет
работа по совершенствованию самой парадигмы. Разрабатываются новые математические и
инструментальные средства, расширяющие сферу ее применимости. Например, теория
Ньютона первоначально в основном была занята решением проблем астрономии и
потребовались значительные усилия, чтобы показать применимость общих законов
ньютоновской механики к исследованию и описанию движения земных объектов. Именно
такого рода проблемами были заняты Эйлер, Лангранж, Лаплас, Гаусс и другие ученые,
посвятившие свои труды усовершенствованию ньютоновской парадигмы.
Кун характеризует проблемы, решением которых заняты ученые в условиях
нормальной науки, как головоломки. Дело в том, что у таких проблем и головоломок есть два
общих свойства, которые, впрочем, и выделяют их из числа всех других проблемных
ситуаций: а) для них существует гарантированное решение и б) это решение может быть
получено некоторым предписанным путем. Парадигма гарантирует, что решение существует,
и она же задает допустимые методы и средства получения этого решения. Поэтому когда
ученый терпит неудачу в своих попытках решить проблему, то это — его личная неудача, а не
свидетельство против парадигмы. Успешное же решение проблемы не только приносит славу
ученому, но и еще раз демонстрирует плодотворность признанной парадигмы.
Научная парадигма, согласно Куну, определяет не только круг вопросов и научные
интересы, но и само восприятие эмпирических фактов. Для того, чтобы объяснить воздействие
парадигмы, необходимо выйти за рамки собственно философии науки и обратиться к
психологии. Именно психология и дает понять, почему ученые упорно держатся за принятые
ими теоретические основания, жертвуя при этом объяснительной силой конкурирующих
парадигм, и даже не обращая внимания на противоречия между опытом и принятыми
теоретическими основаниями. Восприятие эмпирических фактов Кун объясняет при помощи
психологического понятия гештальта. Гештальт – это способ восприятия целостного образа.
Например, Вам дается набор линий и предлагается увидеть в этом рисунок утки, а потом –
кролика. Но после того, как Вам удалось увидеть утку, увидеть кролика очень сложно.
Парадигма действует сходным образом: необходима смена парадигмы, чтобы увидеть
научную проблему под другим углом. Именно в этом смысле Кун говорит о том, что каждая
парадигма формирует свой собственный мир, в котором живут и работают сторонники
парадигмы.
Научная революция и экстраординарная наука
Научные революции, знаменующие собой кризис устоявшейся парадигмы, возникают
в результате двойного давления на парадигму: внутреннего и внешнего.
В процессе нормального функционирования науки идет процесс накопления знания,
который вполне можно было бы описать и кумулятивистскими моделями. Но некоторые
задачи-головоломки так и не поддаются решению, и предсказания теории постоянно
расходятся с экспериментальными данными. Такие «упрямые факты», вопреки мнению
Поппера, далеко не сразу ведут к отвержению теории. Поначалу их либо игнорируют, либо
адаптируют к парадигме путем введения ряда теоретических допущений. Но увеличение числа
таких допущений ведет к разрушению дедуктивной стройности самой парадигмы, делает ее
слишком неуклюжей и сложной в использовании. (Например, чтобы согласовать
99
птолемеевскую систему с наблюдениями, было введено допущение, что планеты вращаются
по эпициклам – дополнительным траекториям, потому – что у каждой планеты своя система
эпициклов).
Но со временем таких нерешенных проблем, которые Кун называет аномалиями,
накапливается все больше. Это приводит к осознанию, что дело вовсе не в индивидуальных
способностях того или иного ученого, и не в повышении точности приборов, и не в учете
побочных факторов, а в принципиальной неспособности парадигмы решить проблему. Само
развитие парадигмы неминуемо приводит к накоплению аномалий, которые, в свою очередь,
начинают «давить» на парадигму изнутри.
С другой стороны, обнаруживается все больше и больше фактов, которые были
отброшены парадигмой. Растет число внешних по отношению к парадигме решений таких
«вытесненных» проблем. Эти решения комбинируются, создавая зачатки новых парадигм. Это
порождает эффект внешнего давления.
Подлинный кризис наступает тогда, когда члены научного сообщества перестают
доверять устоявшейся парадигме и оказываются перед лицом множества нерешенных
проблем, необъясненных фактов и экспериментальных данных. Такие периоды Кун напзвал
периодами экстраординарной науки. Тут на смену интеллектуальному комфорту приходит
состояние эпистемологического хаоса: ученые больше не уверены, что наука знает, что такое
мир. В этих условиях научное сообщество распадается на несколько групп, одни из которых
продолжают держаться за прежнюю парадигму, другие начинают искать новые теоретические
средства, которые, возможно, окажутся более успешными. Только в этот период кризиса,
полагает Кун, ученые ставят эксперименты, направленные на проверку и отсев
конкурирующих теорий. Для этого же периода характерно обращение ученых к философии
науки, способной отрефлексировать метафизический фундамент.
Период кризиса заканчивается, когда одна из предложенных гипотез доказывает свою
способность справиться с существующими проблемами, объяснить непонятные факты и
благодаря этому привлекает на свою сторону большую часть ученых. Она приобретает статус
новой парадигмы. Научное сообщество восстанавливает свое единство. Сам момент смены
парадигм, или научная революция, является принципиально некумулятивным периодом в
развитии науки. Новая парадигма, согласно Куну, не дополняет прежнюю, но полностью
замещает ее. Эта смена парадигм подобна смене гештальтов: мы можем сначала увидеть утку,
а потом, совершив над собой некоторое усилие, – кролика, но не можем увидеть их
одновременно.
Несоизмеримость парадигм
Итак, если смена парадигм подобна переключению гештальтов, то она происходит
сразу, то есть нет промежуточных периодов, когда бы ученые придерживались отчасти старой,
а отчасти новой парадигме. По этой причине ученые, считает Кун, не в состоянии сравнивать
достоинства и недостатки парадигм, ибо не существует никаких общих критериев для такого
сравнения, нет общих основ, которые бы разделяли сторонники конкурирующих парадигм,
нет нейтрального, внепарадигмального научного языка. Факты также не могут служить такой
основой, поскольку, как было показано выше, сам набор фактов и их восприятие обусловлено
парадигмой. Таким образом, парадигмы несовместимы и в теоретическом, и в эмпирическом
плане.
Каждая парадигма задает свою собственную логику, поэтому логический анализ
научных революций оказывается невозможным. Кун показал, что универсальных
методологических стандартов и критериев, подобных тем, которые формулировал Поппер,
всегда будет недостаточно для объяснения перехода ученых от одной парадигмы к другой.
Отсюда понятно, что представления о прогрессе науки, основанные на понятии возрастающей
истинности научных суждений (какой бы смысл ни вкладывался в это понятие), должны быть,
по Куну, исключены из методологической и философской рефлексии над наукой.
100
Поскольку выбор между парадигмами, это выбор между несовместимыми моделями
жизни научного сообщества, то здесь важную роль играют техники убеждения и пропаганды.
Кун отвергает классическое понимание прогресса как «движения к истине». Для него прогресс
– это отбор наиболее пригодного способа научной деятельности, то есть это способность
более точно и эффективно решать проблемы, а признаком прогресса выступает
специализация. Такой подход называется инструменталистским.
В общем и целом, позицию Куна можно принять за своеобразный нигилизм. Однако
это не так. Просто то, что традиционно рассматривалось как несовершенства, требующие
немедленной элиминации, Кун трактует в качестве проявления сущностной природы самой
науки. Кроме того, у Куна в значительной мере исчезает та грань между наукой и метафизикой, которая была так важна для логического позитивизма. В его методологии
метафизика является предварительным условием научного исследования. Принятие некоторой
метафизической системы, согласно Куну, предшествует научной работе. "Едва ли любое
эффективное исследование может быть начато прежде, чем научное сообщество решит, что
располагает обоснованными ответами на вопросы, подобные следующим: каковы фундаментальные единицы, из которых состоит Вселенная? Как они взаимодействуют друг с другом и с
органами чувств? Какие вопросы ученый имеет право ставить в отношении таких сущностей и
какие методы могут быть использованы для их решения?"42. Совершенно очевидно, что ответы на вопросы подобного рода дает метафизика.
Критика куновского подхода
Во-первых, Кун фиксирует наличие в науке эволюционных и революционных
периодов, но не связывает их между собой, ибо смена парадигмы подобна гештальтпереключению. Теорию Куна в силу этого можно назвать «теорией интеллектуальных
катастроф». Из-за этого ученые оказываются пленниками или заложниками парадигмы.
Находясь внутри одного концептуального каркаса, они не имеют никакой возможности
сделать этот каркас объектом рациональной рефлексии: рациональность целиком и полностью
задается соответствующей парадигмой. Единственно возможная критическая позиция в этих
условиях – это позиция иррационалиста. Именно это положение Куна вызывало наиболее
сильное неприятие его концепции со стороны Поппера, который был убежден, что
рациональность науки позволяет ей выходить за рамки концептуальных каркасов, и поэтому
рациональная критика всегда возможна. Но спор Поппера с Куном – это не спор между
рационалистом и иррационалистом, а спор между двумя конкурирующими определениями
рациональности.
Второй наиболее спорный момент в теории Куна – это тезис о монополии парадигмы: в
условиях развития нормальной науки (а значит науки как таковой) существует только одна
парадигма, объединяющая ученых в одно научное сообщество.
Эти положения – самое уязвимое место в куновском подходе, ибо здесь Куна можно
побить его же собственным оружием – анализом исторического развития науки. Практически
невозможно представить, что история науки распадается на «несоизмеримые» отрезки, между
которыми – периоды полного прекращения рациональной коммуникации. Более того, в
истории науки сложно найти примеры столько тотального господства какой-либо одной
парадигмы.
Скорее
можно
обнаружить
конкуренцию
между
различными
«исследовательскими программами», что и было зафиксировано в подходе Имрэ Лакатоса.
Появление новой объяснительной теории не означает тотальной отмены старой. Так,
например, теория относительности Эйнштейна не отменила законов классической механики.
Новая парадигма, скорее, корректирует и ограничивает старую, а не полностью отменяет.
42
Кун Т. С. Структура научных революций. М., 1975, с. 20
101
Методология исследовательских программ Имрэ Лакатоса
Имре Лакатос (или Лакатош) (1922-1974) венгерский философ и историк науки,
который разработал универсальную концепцию развития научного знания, основанную на
идее конкурирующих научно-исследовательских программ. Данная концепция совмещает
положительные стороны двух конкурирующих моделей науки – нормативной модели К.
Поппера и исторической модели Т. Куна, – при этом избегая основных недостатков обеих.
По политическим причинам после 1956 года Лакатос эмигрировал в Великобританию. Он
был одним из самых ярких и продуктивных последователей К. Поппера и отстаивал
принципы критического рационализма, полагая, что большинство процессов в науке
допускает рациональное объяснение. Лакатос стал наиболее глубоким и последовательным
критиком концепции смены парадигм Т. Куна. Секрет успешности его критики заключается
в том, что он осуществлял ее не как консерватор, жаждущий лишь восстановления в правах
классического идеала научности, но с тех позиций, на которых стоял сам Кун – с точки
зрения реального исторического развития науки. Однако, как это ни парадоксально, этого
«рыцаря рациональности» считал своим идейным союзником один из самых радикальных и
провокационных философов науки XX века – Пол Фейерабенд.
Наука, согласно Лакатосу, может успешно развиваться, только если в ней
присутствует конкуренция. Только в соревнование вступают не сами ученые, а научноисследовательские программы. Идея научно-исследовательской программы напоминает
куновскую парадигму, за тем исключением, что ученые не являются ее абсолютными
пленниками, хотя и предполагается их преданность основополагающим положениям
программы. Однако при разработке своей концепции Лакатос опирался не на Куна, а на
позднего Поппера с его идеей методологического фальсификационизма. Если вначале
главный тезис Поппера состоял в том, что судьба теории всегда находится в руках фактов, то
позднее он обращает внимание на зыбкость эмпирического базиса науки и предлагаемого им
средств контроля за теоретическим уровнем. Лакатос развивает эту идею, показывая, что не
только гипотезы, но и их опровержения могут быть ошибочными. Отношения между
теорией и фактами выглядит не так просто, как полагали догматические
фальсификационисты. На самом деле, одному и тому же фактическому материалу может
быть дано разное объяснение. Поэтому в борьбе за развитие науки участвуют факты и, как
минимум, две теоретические программы. История науки не раз оказывала нам, что
появление противоречащих теории фактов не приводит автоматически к отказу от теории.
Теорию могут «списать в архив», только если появляется другая, лучшая теория.
Классическая механика Ньютона стала фактом прошлого только после того, как появилась
теория относительности Эйнштейна – концепция, лучше и точнее объясняющая
наблюдаемые явления.
В общем и целом Лакатос разделял «слабую версию» эволюционной эпистемологии,
однако в наиболее смягченном виде. Он был убежден, что прогресс науки невозможен без
конкуренции между теориями, и эта борьба является фактом не каких-то особенных
периодов «научных революций», как это было у Куна, а определяет нормальное развитие
науки на каждом этапе ее существования. С позицией Куна концепцию Лакатоса роднит
уверенность в том, что всякая методологическая концепция науки должна функционировать
как историографическая.
Лакатос критиковал тех философов, которые за своей
озабоченностью эпистемологическими и логическими проблемами так и не смогли
разглядеть реальную историю науки. В число таких «неисторичных» авторов попадает и
Поппер. Однако позиция Томаса Куна также не удовлетворила Лакатоса – он счел ее
чересчур иррациональной. Сам момент перехода от одной парадигмы к другой оказывается
мистическим событием, где не работают правила рациональности. Принятию новой
фундаментальной теории даются психологические объяснения, как если бы речь шла об
обращении в новую религию.
Сам Лакатос видел развитие науки как борьбу различных научно-исследовательских
программ. Его модель не только объясняет особенности развития науки, но и дает
102
возможность оценить различные логики научного исследования. Научно-исследовательская
программа – это сложный феномен. Она представляет собой не одну теорию, а серию
сменяющихся теорий, связанных друг с другом едиными принципами. Чтобы лучше понять
суть разработанной Лакатосом методологии научно-исследовательских программ, следует
обратиться к их структуре.
Итак, каждая исследовательская программа включает в себя «твердое ядро» и
«защитный пояс». «Твердое ядро» состоит из неопровергаемых с точки зрения
приверженцев программы положений, то есть из нефальсифицируемых гипотез. Данные
гипотезы дают общие представления о реальности, которую описывают входящие в
программу теории; основные законы взаимодействия элементов этой реальности; главные
методологические принципы, связанные с этой программой. Эти представления можно еще
назвать метафизикой программы, которую принимают как нечто само собой разумеющееся
все работающие в рамках программы ученые. Для них эти положения беспроблемны и в
проверке не нуждаются.
Например, твердым ядром ньютоновской программы в
классической механике было представление о том, что реальность состоит из частиц
вещества, которые движутся в абсолютном пространстве и времени в соответствии с тремя
известными ньютоновскими законами и взаимодействуют между собой согласно закону
всемирного тяготения. От фальсификации и разрушительного воздействия опровергающих
фактов положения «твердого ядра» охраняются отрицательной эвристикой.
Отрицательная эвристика представляет собой свод правил, указывающих на то, каких путей
следует избегать. Она говорит о том, что положения «твердого ядра» не должны
подвергаться критике, вся тяжесть которой обрушивается на вспомогательные гипотезы. Эти
гипотезы, принимающие на себя удары критики и эмпирических проверок, составляют
«защитный пояс» исследовательской программы. Пока программа действует, modus tolens
используется только по отношению к вспомогательным гипотезам «защитного пояса», но не
к утверждениям «твердого ядра». «Отрицательная эвристика» придает рациональный смысл
также классическому конвенциализму. Данное научное сообщество принимает соглашение
(чаще всего, неявно) о том, что базовые утверждения исследовательской программы (ее
«твердое ядро») остается вне критики, пока подкрепление эмпирического содержания
вспомогательных гипотез продолжает увеличиваться. От «твердого ядра» отказываются
только в том случае, если программа более не в состоянии предсказывать ранее неизвестные
факты.
«Защитный пояс» - это пластичное и изменчивое образование, в отличие от
неподвижного «твердого ядра». Развиваться вспомогательным гипотезам помогает
положительная эвристика, представляющая собой стратегию выбора первоочередных
проблем и задач, которые должны решать ученые. Положительная эвристика складывается
из ряда более или менее ясных доводов и достаточно вероятных предположений. Все они
служат тому, чтобы исправлять, уточнять, трансформировать опровергаемые варианты
исследовательской программы. Положительная эвристика направлена на то, чтобы создавать
все более сложные, рафинированные модели реальности, являющиеся импликациями
данной научно-исследовательской программы.
Положительная эвристика также является стратегией предвидения фальсификации
конкретных гипотез и дальнейших модификаций исходных моделей. Если положительная
эвристика четко
определена, то трудности программы имеют в большей степени
математический, а не эмпирический характер. Наличие положительной эвристики позволяет
ученым определенное время игнорировать критику и аномалии и заниматься
конструктивными исследованиями. Обладая такой стратегией, ученые могут заявлять, что со
временем они доберутся до непонятных и потенциально опровергающих программу фактов,
так что их существование не является поводом для отказа от программы. Исследователи
надеются, что придет время, когда контрпримеры превратятся в подкрепление их программ.
В большинстве случаев, когда исследовательская программа вступает в конфликт с
известными фактами, теоретики видят причину этого в несовершенстве экспериментальной
103
техники и методологических оснований эмпирических исследований. Теоретики могут даже
исправлять данные, полученные экспериментатором, получая, таким образом, новые факты.
Повышенная чувствительность к аномалиям характерна для регрессивной стадии развития
исследовательской программы, когда ее положительная эвристика исчерпала свои ресурсы.
«Защитный пояс» может приспосабливаться, переделываться или даже полностью
заменяться, если это потребуется. Если все это дает прогрессивный сдвиг в решении
поставленных проблем, то исследовательская программа может считаться успешной.
Каждый удачный ход в этом направлении позволяет предсказать новые факты, т. е.
увеличивает эмпирическое содержание. Это – пример устойчиво прогрессивного
теоретического сдвига.
При разработке своей модели развития науки Лакатос опирался главным образом на
эмпирические и логические критерии. Его внимание было сосредоточено на том, как
конструируются научные модели. В качестве примера одной из самых успешных научноисследовательских программ можно привести механику Ньютона. В начале Ньютон
разработал свою программу для планетарной системы с фиксированным точечным центром
(Солнцем) и единственной точечной планетой. Именно для такой модели было введено
правило обратного квадрата (1/ r2). Однако такая модель с фиксированным центром
запрещена третьим законом динамики, что Ньютону было понятно изначально.
Первоначальная ложная модель уступила место другой модели, в которой Солнце и
планета вращаются вокруг общего центра масс. Очевидно, что изменение модели было
вызвано чисто теоретическими причинами. Затем была разработана модель для большего
числа планет, как если бы существовала только гелиоцентрическая сила притяжения, но не
было межпланетных сил притяжения. Очевидно также, что планеты не являются точками, но
важнее здесь то, что бесконечные значения плотности (сингулярности) запрещались
исходными принципами теории Ньютона. Модель, в которой солнце и планеты получают
объем, влечет за собой серьезные математические трудности, которые задерживают
публикацию «Математических начал натуральной философии» более чем на десять лет.
Затем в модель были введены межпланетные силы притяжения, была начата работа над
решением задач с возмущениями орбит, но не все факты движения планет еще укладывались
в теорию. Тогда Ньютон начал работать с моделями деформированных, а не строго
шарообразных планет. Таким образом, первая наивная модель не составляет
исследовательской программы и не образует научного открытия. Ложность такой модели не
была тайной для Ньютона, поэтому он и воздерживался от публикации своих результатов.
Несмотря на то, что положения «твердого ядра» различных программ можно считать
несоизмеримыми, тем не менее, есть основания для сравнения научно-исследовательских
программ между собой. Программы сравниваются по их эвристической силе, то есть по
тому, сколько новых фактов они могут предсказать и насколько велика их способность
объяснять контрпримеры и аномалии в процессе их роста. Программы могут
демонстрировать прогрессивный или регрессивный сдвиг научных проблем. Программа
прогрессирует, пока положения «твердого ядра» позволяют формулировать все новые и
новые гипотезы «защитного слоя». Когда продуцирование таких гипотез ослабевает и
оказывается невозможным объяснить новые, а тем более адаптировать аномальные факты,
наступает регрессивная стадия развития программы. Типы отношений между процессом
развития программы и ее эмпирическими проверками носят конкретно-исторический
характер и характеризуют ее эвристический потенциал.
Возможны три наиболее типичных случая отношений между теорией и фактами:
1)
Ученые последовательно выдвигают несколько вариантов теоретических
моделей. Каждый из них имеет как подтверждения, так и опровержения. Затем предлагается
такая модель, которая предсказывает новые факты и выдерживает самые суровые проверки.
В этом случае имеет место прогрессивный сдвиг в решении проблем, а также чередование
догадок и опровержений. Этот вариант развития научного знания, когда теоретическая и
экспериментальная работа идут рука об руку, описан К. Поппером.
104
2)
Одинокий теоретик разрабатывает несколько вариантов исследовательской
программы. Он настолько самокритичен, что публикует лишь последний вариант, который
подтверждается в результате проверки. В данном случае теоретик идет впереди
экспериментатора. Это – период относительной автономии теоретического прогресса.
3)
Теоретические модели объясняют уже известные эмпирические данные, что
вызывает подозрения относительно тривиальности исследовательской программы. Ученые
должны усердно трудиться над разработкой новых гипотез, доказывающих значимость своей
программы.
Итак, программа развивается успешно и демонстрирует прогрессивный сдвиг, пока
она способна успешно предсказывать факты и ее теоретическое развитие идет впереди
действия экспериментаторов. Если же теоретик идет позади экспериментатора и программа
лишь объясняет новые факты, предсказанные конкурирующей программой либо открытые
случайно, значит, данная программа утрачивает эвристическую силу и начинается
стагнация. Исследовательская программа испытывает тем большие трудности, чем больше
прогрессирует ее конкурент, и наоборот если исследовательская программа объясняет
больше, чем конкурирующая, то она вытесняет последнюю из оборота научного сообщества.
Это связано с тем, что предсказываемые одной программой факты всегда являются
аномалиями для другой.
Если модели двух исследовательских программ имеют дело с различными аспектами
одной предметной области, то программы неминуемо с течением времени начнут
соперничать. Дело в том, что по мере своего развития, программа нередко вторгается на
чужую территорию. В этом случае ставится эксперимент, цель которого – показать, какая из
программ лучше объясняет данные явления. Однако на этом борьба не заканчивается.
«Проигравшей» программе, чтобы вернуть позиции, иногда бывает достаточно
сформулировать новые гипотезы, которые бы увеличили ее эмпирическое содержание и
способны были бы пройти успешную проверку.
Одна из центральных идей Лакатоса состояла в том, что только теоретический
плюрализм и постоянная конкуренция между исследовательскими программами
способствуют прогрессивному развитию научного знания. Именно поэтому Лакатос
критиковал концепцию «нормальной науки» у Томаса Куна. Монополия одной парадигмы,
свойственная, по Куну этому, самым длительным периодам истории науки, в
действительности должна была бы привести к стагнации, или, по крайней мере, серьезно
затормозить развитие научного знания. В реальной истории науки исследовательские
программы редко обладают полной монополией, и то только непродолжительное время, если
исключать из рассмотрения идеологические причины и вмешательство государственных
структур.
Релятивизм и методологический анархизм
Понятие релятивизма
Релятивизм – это эпистемологическая позиция, утверждающая относительность,
условность и ситуативность научного знания. Прослеживая истоки такой позиции, стоит
обратиться к уже упоминаемому нами «кризису математики» конца 19 века. Отечественный
математик Н. И. Лобачевский и независимо от него венгерский математик Я. Бойаи пришли
к идее геометрии, в которой вместо евклидова постулата о параллельных прямых, был
введен другой постулат: «Если на плоскости точка А не лежит на прямой R, то
существует более чем одна прямая, проходящая через А и параллельная R». Чуть позднее Б.
Риман указал на возможность целого ряда неевклидовых геометрий. Это привело ученых в
замешательство и спровоцировало дискуссии о том, какая же геометрия все-таки описывает
реальное пространство. Но в 1902 году Анри Пуанкаре поставил точку в этих спорах, заявив,
что «никакая геометрия не является более истинной, чем другая; та или иная геометрия
105
может быть только более удобной»43. Но если альтернативные теории пространственных
отношений равноправны, то выбор одной из них в качестве «физики» становится
конвенциональным. Ситуацию усугубили работы Д. Гильберта, который предположил, что
возможны не только неевклидовы, но и неархимедовы геометрии, то есть геометрии, в
которых не используется постулат Архимеда – Евдокса (постулат о природе
действительного числа и о том, что прямая – это континуум точек).
В области философии ближайшими предшественниками релятивизма являются
прагматизм (Ч. С. Пирс, У. Джеймс) и операционализм (Д. Дьюи). На позициях
операционализма стоял Перси У. Бриджмен (1882 - 1961), американский физикэкспериментатор, получивший Нобелевскую премию за работы по физике высоких
давлений. Его работы в области философии науки представляют собой образец крайнего
релятивизма. Согласно Бриджмену, Альберт Эйнштейн отождествил научные понятия с
совокупностью операций измерения. Так, пространство – это не пустое неподвижное
вместилище, каким оно было у Ньютона, а та совокупность операций с линейкой и другими
предметами, посредством которых производится измерение. Время – это не ньютоновская
постоянная равномерная длительность, а операции с часами. Одновременность – не
абсолютная характеристика событий, а методика синхронизации удаленных часов. В
поздних работах Бриджмен стал особенно подчеркивать личностный характер таких
операций. Каждую операцию исследователь выполняет на свой страх и риск. При этом
Бриджмен выступал против концепции общественной науки и отстаивал взгляд на науку как
на личное, приватное дело.
Релятивизм В. Куайна и концепция онтологической относительности
Другими яркими представителями релятивистского подхода являются Томас Кун,
Виллард Ван Орман Куайн и Пол Фейерабенд. Позиция Куна была изложена выше. Куайн
(р.1908) является одним из самых выдающихся представителей аналитической философии.
Релятивистская программа Куайна опирается на натуралистическую онтологию и на
философский бихевиоризм (унаследованный от его учителя Д. Дьюи). Куайн, в отличие от
Поппера, Куна и Лакатоса, не выдвигает каких-либо общих эпистемологических схем. Его
философия науки сочетается и исследованиями в области психологии и лингвистики и
проникнута полемикой с виднейшим представителем неопозитивизма – Рудольфом
Карнапом. Куайн указывает на то, что Карнап находится в плену у классического понимания
связи языка, мышления и бытия, что выливается в создание так называемого «мифа о
музее»: значения слов – экспонаты, а сами слова – подписи к экспонатам. Этот «миф о
музее» развенчивается Куайном в статье «Онтологическая относительность» 44.
Вся некритическая семантика (теория значения), положения которой очень близки к
позиции здравого смысла, оказывается мифом о музее. К этому мифу можно выдвинуть два
возражения. Во-первых, здесь значение слова предстает как мысленная сущность, а критика
описания сферы идеального в терминах сущностей имеет на сегодняшний день давнюю
традицию, которую сложно игнорировать. Во-вторых, здесь установление значения целиком
и полностью замыкается в области ментальных процессов. Получается, что можно дать
исчерпывающие ответы на все вопросы о значении слова, не прибегая к анализу поведения
использующих это слово людей. Однако самые сокровенные факты, касающиеся значения,
полагает Куайн, не заключаются в подразумеваемой сущности, они должны
истолковываться в терминах поведения. Любой акт понимания значения языкового знака
состоит из двух частей. Сначала мы знакомимся со звучанием слова и способом его
воспроизведения. Вторая часть заключается в понимании того, где и как этот языковой знак
используется. Эта часть оказывается довольно сложной даже в тех случаях, когда
43
Пуанкаре А. Наука и гипотеза // Пуанкаре А. О науке. – М., 1983, с. 43
См.: Куайн В. Онтологическая относительность // Современная философия науки: знание, рациональность,
ценности в трудах мыслителей
Запада: Учебная хрестоматия (составление, перевод, примечания и
комментарии А.А.Печенкина). М.: Издательская корпорация "Логос", 1996.
44
106
именуемый объект дан для наблюдения. Каждый из нас, изучая язык, учится на поведении
окружающих. Обучающийся не имеет никаких данных, с которыми он мог бы работать,
кроме наблюдаемого поведения других говорящих людей.
Такая бихевиористская концепция значения вынуждает нас отказаться от уверенности в
какой-либо определенности. Неопределенность при использовании языка оказывается
неизбежной, даже когда мы имеем дело с именованием эмпирических объектов. Это
обстоятельство Куайн и назвал «онтологической относительностью». Для подтверждения
своей позиции, Куайн предлагает нам провести мысленный эксперимент. Предположим, что
мы антропологи, изучающие маленький изолированный народ, чей язык не похож ни на
один из нам известных. Каким-то образом нам удается наладить контакт с одним из
представителей этого народа, при том что в нашем распоряжении нет языка, который был бы
известен и нам, и ему. У нас нет иного способа постигнуть язык туземцев, кроме как
наблюдая за их поведением. Предположим, что однажды, во время прогулки, наш спутник
произносит слово «гавагаи» в тот момент, когда в нашем поле зрения появляется кролик. Что
означает «гавагаи»? Здравый смысл говорит нам, что относительно небольшой комплекс
звуков в сочетании с указанием на отдельный объект скорее всего будет именованием этого
объекта. Примем во внимание это замечание, хотя оно не имеет под собой никакого
основания, кроме нашей привычки. Однако как нам быть уверенными, что наш спутник,
указывая в сторону кролика и произнося «гавагаи» не имел в виду какую-то часть кролика,
или его форму или его цвет или какую-либо иную характеристику? Допустим, что «гавагаи»
именует не кролика целиком, а некий Х, который присущ всем кроликам и не существует
отдельно от них. И тогда всякий раз, как нас спутник будет видеть кролика, он будет
произносить «гавагаи». А может «гавагаи» будет означать «появление кролика в поле
зрения»? Где уверенность, что структура языка туземцев аналогична структуре нашего
языка? Выбирая при переводе «гавагаи» между «кроликом», «неотделимой частью кролика»
и «временным появлением кролика в поле зрения», мы будем пользоваться практическими
соображениями, но это не устраняет проблему неопределенности этого перевода. Более того,
с неопределенностью референции мы сталкиваемся не только в чужих языках, но и в своем
родном.
Относительность на уровне референции, ее неопределенность и в какой-то мере даже
непостижимость вовсе не означает непостижимости фактов. Речь здесь вообще идет не о
фактах, а о семантических проблемах. Однако эти проблемы оказывают непосредственное
влияние на то, как мы трактуем научное знание, выраженное, в конечном счете, при помощи
языка. Учитывая эту неопределенность, мы должны понимать, что многое в научном знании
зависит от конвенций, заключаемых участниками познавательного процесса, таких, как уже
упоминаемое соглашение по поводу слова «белый» при встрече с вороном-альбиносом и
опровержении высказывания «Все вороны черны». Релятивистский тезис, к которому
приходит Куайн, состоит в следующем: нет смысла говорить о том, что представляют собой
объекты теории сами по себе, за пределами обсуждения вопроса о том, каким образом
интерпретировать теорию. Говорить о полной интерпретации теории можно лишь в
относительном смысле.
Радикальный релятивизм П. Фейерабенда и методологический анархизм
Еще одним – и, наверное, самым радикальным, – представителем релятивистской
позиции был Пол Фейерабенд. Пол (Пауль) Карл Фейерабенд (1924 - 1994) – американский
философ и методолог науки австрийского происхождения, отстаивавший позиции
теоретического и методологического плюрализма, а также относительность критериев
рациональности. Его позиция получила название «методологического анархизма». В ранних
работах Фейерабенд, стоя на позициях близких Попперу, критиковал концепцию
дедуктивного кумулятивизма. Фейерабенд выделяет два основных принципа дедуктивного
кумулятивизма: 1) принцип дедуцируемости, утверждающий, что более ранняя теория может
быть дедуктивно выведена из более поздней теории, 2) принцип инвариантности значения,
107
согласно которому значения выражений более ранней теории сохраняются в языке более
поздней теории. Он опровергает оба принципа, указывая на то, что теории (например, теория
Аристотеля, теория Ньютона и теория Эйнштейна) являются несовместимыми.
В рамках своей философии «методологического анархизма» Фейерабенд возвращает
в философию науки ту замечательную идею, что любой научный метод, любая модель
научного знания всегда обнаружит какую-то свою ограниченность. Фейерабенд
возвращает нам чувство мистической бесконечности научного знания и научной
деятельности. Принципу фальсифицируемости Поппера Фейерабенд противопоставляет
«принцип прочности (консервации)», требующий от ученого разрабатывать теорию, не
обращая внимание на трудности, которые она встречает. Часто ученые проявляют
большое упорство в отстаивании своих теорий, несмотря на давление критики, и порою в
итоге такая установка позволяет сохранить еще «ранимые» ростки нового знания,
обнаруживающего свою устойчивость к контрпримерам только на достаточно зрелой
стадии своего развития.
Критикуя позицию Куна, Фейерабенд возражает против его абсолютного разделения
нормальной науки и научной революции. С его точки зрения, элементы этих двух
состояний научного знания постоянно присутствуют в его эволюции.
Возражая стереотипу разделения обыденного языка и языка науки, Фейерабенд
предлагает взглянуть на обыденный язык как на некоторую своеобразную теорию,
которая также может быть преодолена некоторой последующей теорией. До некоторой
степени этот процесс, по-видимому, совершается в эволюции самого обыденного языка,
который все более ассимилирует различные теоретические конструкции.
Главная работа Фейерабенда – «Против методологического принуждения» –
планировалась как первая часть совместной работы-диспута с Имре Лакатосом,
посвященного проблемам рационализма. Но Лакатос умер и Фейерабенд посвятил свой
труд его памяти.
Во вступлении Фейерабенд ставит два главных вопроса критического исследования
науки:
1) Каковы границы науки?
2) В чем ценность науки? (Т.е. действительно ли она лучше концепции, изложенной
древними семитами в Книге Бытия, или же космологии индейцев хопи).
Если на первый вопрос существует множество ответов, то второй вопрос, по убеждению
Фейерабенда, в наше время практически не ставится. Наука принимается как абсолютная
ценность просто потому, что это наука. Вследствие этого возникает асимметрия в
положении науки и других форм миропонимания. У нас никто не говорит: «Существуют
(существовали) люди, которые верят (верили), что Земля вращается вокруг Солнца».
Научные пропозиции подаются как догмы и носят принудительный характер, что делает
науку схожей с теологией времен средневековья. «В самом деле, - пишет Фейерабенд, –
определенные методы дискуссии или внушения, некогда служившие сиянию церковной
мудрости, ныне нашли себе новое прибежище в науке». Эта ситуация не вызывала бы
беспокойства, если подобный догматизм был бы распространен только в среде свято
верящих в науку ученых. Но это не так. Современное государство, которое в идеале
(демократическом идеале) должно быть идеологически нейтральным, повсеместно вступает
в тесную связь с наукой. Иными словами, государство и религия, государство и миф четко
отделены, а государство и наука – нет. (Государство и идеология, в общем-то тоже, хотя
иногда идеологические принципы могут включаться в структуру государства, но только как
решение большинства и после открытого обсуждения. В отношении науки никто такого
обсуждения не проводит).
Это, по мнению Фейерабенда, вступает в противоречие с принципами демократии.
Кроме того, сама наука антидемократична: принятие или отбрасывание научных фактов и
принципов полностью отделено от демократического процесса информирования
общественности, обсуждения и голосования. Мы принимаем научные законы и факты,
108
изучаем их в школах, делаем их основой важных политических решений, даже не пытаясь
поставить их на голосование. Понятно, что принимать решения в области науки должны те,
кто в ней компетентен. Это – научное сообщество. Но ведь само сообщество и устанавливает
критерии этой компетентности! Между научным сообществом и общественностью
существует пропасть, которая считается непреодолимой.
Здесь надо иметь в виду, что Фейерабенд вовсе не ратует за замену науки чем-то другим,
например, религией. Он выступает против авторитаризма науки, который, подчас, вредит ей
самой. Ученые, убежденные в абсолютной исключительности науки, вполне могут пройти
мимо полезного знания, посчитав его «ненаучным». Придание науке характера «тотального
мировоззрения» лишает жизнь многих возможностей, ибо наука в действительности не
абсолютна и не тотальна. Сказанное о науке справедливо и в отношении известных нам
сегодня мифов, религий, магических учений. «Запомним хотя бы то, что имеется много
способов бытия-в-мире, каждый из которых имеет свои преимущества и недостатки, и что
все они нужны для того, чтобы сделать нас людьми в полном смысле этого слова и решить
проблемы нашего совместного существования в этом мире».
Но обратимся теперь к идеям «методологического анархизма». В качестве эпиграфа к
своей работе Фейерабенд берет слова Бертольда Брехта о том, что порядок в наши дни есть
обычно там, где ничего нет. Он указывает на бедность. «Методологический анархизм»,
таким образом, призван обогатить науку, и, будучи малопривлекательным с политической
точки зрения, анархизм оказывается необходимым как философия науки. При этом не
следует опасаться, что уменьшение интереса к закону и порядку в науке и обществе,
характерное для анархизма этого рода, приведет к хаосу. Нервная система людей для этого
слишком хорошо организована.
Анархическая наука – это наука, руководствующаяся принципом «допустимо все» (или
«все сойдет») – anything goes. Только такой принцип будет гуманным и действительно
содействовать научному прогрессу. Это положение Фейерабенд подтверждает ссылками на
конкретные исторические события. История действительно свидетельствует о том, что более
разнообразный спектр теорий может позволяет быстрее выбрать из них наиболее адекватную
для описания фактов.
Познание, с точки зрения анархической эпистемологии, не есть ряд непротиворечивых
теорий, приближающихся к некоторой идеальной концепции. Оно не является постепенным
приближением к истине, а скорее представляет собой увеличивающийся океан взаимно
несовместимых (быть может, даже несоизмеримых) альтернатив, в котором каждая
отдельная теория, сказка или миф являются частями одной совокупности, побуждающими
друг друга к более тщательной разработке; благодаря этому процессу конкуренции все они
вносят свой вклад в развитие нашего сознания. Кроме того, абсолютно все идеи, сколь бы
абсурдными они ни были, могут обогатить наше познание. Подчас, отмечает Фейерабенд, не
надо брезговать даже политическим давлением на науку, если оно помогает обуздать
шовинизм науки, пытающейся сохранить status quo.
Во времена развития квантовой механики новые теории были настолько отличными от
идей классической физики, что Нильс Бор в качестве одного из критериев новых теорий
выдвигал их «достаточную безумность». Вслед за Бором, Фейерабенд предлагает выдвигать
гипотезы, не согласующиеся ни с имеющимися фактами, ни с хорошо подтвержденными
теориями. Подобный принцип действия Фейерабенд назвал «контриндукцией».
Ни одна теория никогда не согласуется со всеми известными в своей области фактами.
Но это не должно быть свидетельством против теории, ведь факты формируются прежним
взглядом на мир и несогласованность с ними новой гипотезы может указывать на то, что она
действительно задает новую перспективу.
В науке начиная с Аристотеля довольно распространены так называемые
«естественные интерпретации» - интерпретации, так хорошо согласованные с нашим
обыденным опытом и «естественной установкой» сознания, что требуется немалое усилие,
109
чтобы выступить против них. Более того, естественные интерпретации обрастают
высокоабстрактным языком, который их неплохо маскирует.
Исходя из принципа контриндукции условие совместимости (новая гипотеза должна
быть логически согласована с уже принятыми) оказывается неразумным, ведь оно ведет к
тому, что сохраняется наиболее старая теория, а не лучшая. Этот принцип препятствует
процессу пролиферации (т.е. умножения, разрастания) теорий, который благотворен для
науки. Единообразие, поддерживаемое условием совместимости, ослабляет критическую
силу научных теорий. Здесь отчетливо слышны отголоски позиции Лакатоса, который
говорил о продуктивности конкуренции между теориями и непродуктивности теоретической
монополии. Позиция Фейерабенда очень напоминает сильно радикализированную позицию
Лакатоса. Самого Лакатоса Фейерабенд хоть и упрекает в ограниченности, но считает
«замаскированным анархистом».
Подобно Лакатосу, Фейерабенд призывает к щадящему отношению к новым гипотезам,
которые могут стать провозвестниками новой продуктивной теории. На момент своего
возникновения они настолько слабы, что подчас могут выжить только при «молчании
разума». Так произошло, по мнению Фейерабенда, с гелиоцентрической моделью
Коперника. Метод, который использовал Галилей, защищая коперниканскую модель, был по
сути «иррациональным».
Концепция научного знания Майкла Полани
Майкл Полани (1891 - 1976) – британский ученый и философ науки. Полани считается
одним из основателей социологии познания, исследовавшим проблемы научных традиций,
научных школ, вопросы внутринаучной коммуникации.
Он разработал концепцию «личностного неявного знания» (personal knowlege). Термин
«личностное знание» не означает, что Полани является в плане эпистемологии
субъективистом. Для него «личностное знание» - это сплав личного и объективного. Эта
концепция выступает альтернативой по отношению к классическому идеалу научной
беспристрастности. В точных науках этот ложный идеал, по определению самого Полани,
большого вреда не приносит, но в таких науках, как биология, социология и психология его
влияние оказывается разрушительным. Полани в разработке своей концепции опирался на
достижения гештальтпсихологии. Для Полани «гештальт» - это «активное постижение
познаваемых вещей, действие, требующее особого искусства». Что же это за искусство? В
любом познавательном акте есть нечто, что выступает для нас в качестве инструментов или
ориентиров познания, но что всегда остается на периферии нашего сознания. Иными
словами, мы сфокусированы на целостном результате, а то, при помощи чего этот результат
достигается, остается в тени. В этом смысле акты постижения необратимы и некритичны.
Исходные теоретические представления М. Полани о механизме развития науки резко
контрастируют с попперовскими. Если Поппер считает рациональность имманентной чертой
науки и ищет внутреннюю логику ее развития, то М. Полани рассматривает в качестве
имманентных характеристик науки ее культурно исторические детерминанты,
формирующие не только институциональный облик науки, но и сами формы научной
рациональности. Если Поппер пытался строить «эпистемологию без познающего субъекта»,
то пафос работ М. Полани связан с выявлением как раз личностного фактора науки.
Полани пытается показать роль навыков, научной сноровки, мастерства, которые
приобретаются лишь практическим участием в научной работе. На этом основании он
подвергает критике традиционное разделение процессов научного исследования и
профессионального образования, считая их сторонами единого процесса развития
человеческого знания.
Таким образом, концепция личностного знания оказывается тесно связанной с
концепцией неявного знания. Основным стержнем концепции неявного знания является
положение о существовании двух типов знания:
110
1) центрального, или явного, эксплицируемого;
2) периферического, неявного, скрытого, имплицитного.
Причем имплицитный элемент познавательной активности субъекта трактуется как
необходимое основание логических форм знания.
Свою главную работу – «Личностное знание» - Полани начинает с рассуждений о
значении коперниканской революции. По его мнению, система Коперника является столь же
антропоцентричной, что и система Птолемея. «Будучи человеческими существами, мы
неизбежно вынуждены смотреть на Вселенную из того центра, что находится внутри нас, и
говорить о ней в терминах человеческого языка, сформированного насущными
потребностями человеческого общения. Всякая попытка полностью исключить
человеческую перспективу из нашей картины мира неминуемо ведет к бессмыслице».
Разница же между Коперниковой и Птолемеевой системами состоит в том, что они служили
удовлетворению различных человеческих побуждений. Система Птолемея ближе к
непосредственному чувственному опыту, а система Коперника опиралась, в первую очередь,
на теорию. Это смещение природы интеллектуального удовлетворения в сторону повышения
значимости теоретического компонента и следует рассматривать как критерий усиления
объективности. «Это означает, что из двух форм знания более объективной мы должны
считать ту, которая в большей мере полагается на теорию, нежели на более
непосредственное чувственное восприятие».
Но почему теория обосновывает объективность? Полани определяет теорию
следующим образом:
(а) Теория — это нечто, что отличается от меня самой. Ее можно изложить на бумаге,
придав ей вид системы правил. В сущности, всякую теорию можно представить как
своеобразную карту, протяженную в пространстве и во времени. Конечно, карта может быть
правильной или неправильной, поэтому в той степени, в какой я на нее полагаюсь, я буду
именно ей приписывать все ошибки, с которыми столкнусь. В силу этого теория является
объективным.
(б) Теория сама по себе не может пойти по неверному пути из-за моих иллюзий. Чтобы
найти дорогу, руководствуясь картой, я должна совершить сознательный акт чтения карты, и
здесь я могу ошибиться, но карта не может ошибиться — она является истинной или
ложной сама по себе, безличностно. Теории присуща собственная четкая структура, и я
нахожусь в зависимости от нее, каковы бы ни были мои сиюминутные желания и
настроения.
(в) Поскольку формальные утверждения теории не зависят от состояния личности,
которая ее принимает, теории можно конструировать, невзирая на повседневный опыт
личности.
Это — третий довод в пользу того, что коперниканская система, будучи более
теоретической, чем система Птолемея, является также и более объективной. Поскольку
картина солнечной системы, данная Коперником, не зависит от нашей привязанности к
Земле, она одинаково подходит для обитателей Земли, Марса, Венеры или Нептуна при
условии, что они разделяют наши интеллектуальные ценности.
Итак, теории – это формальный объективный компонент нашего знания. Но всякий
познавательный акт является личностным актом, то есть это всегда «чей-то акт».
Личностный же акт может быть формализован только частично. Выбор и проверка научной
гипотезы — это личностные акты, но, как всякие такие акты, они предполагают
определенные правила. Такие правила Полани называет максимами. Максимы — это
правила, регулятивные принципы, искусное применение которых составляет часть
мастерства. Тот, кто не обладает хорошим практическим знанием той или иной
деятельности, не сможет понять максимы этой деятельности и тем более применить их.
Когда другой человек использует мои научные максимы, чтобы руководствоваться ими в
своем индуктивном умозаключении, он может прийти к совершенно иным выводам.
111
Максимы играют важную роль в структуре личностных актов познания. Наука
создается искусством ученого; осуществляя свои умения, ученый формирует научное
знание. Полани исходит из того, что цель искусного действия достигается путем
следования ряду норм или правил, неизвестных как таковые человеку, совершающему это
действие. Этим наука неотличима от других практик. Например, велосипедист сохраняет
равновесие следующим образом: когда он начинает клониться вправо, он поворачивает руль
направо, в результате чего курс движения велосипеда отклоняется по кривой в правую
сторону. Благодаря этому возникает центробежная сила, которая толкает велосипедиста
влево и компенсирует гравитационную силу, тянущую его вправо вниз. Но никто реально не
задумывается над этим, когда ездит на велосипеде. Более того, знать об этом – еще не
означает уметь ездить. Данное правило – всего лишь максима, правило, которое может быть
эксплицировано. Но не оно определяет успешность действия, так как существует еще ряд
важных факторов, упущенных в этой формулировке. Итак, мастер следует максимам, даже
если не знает о них, но сами максимы не могут заменить личностное знание.
Поскольку умения нельзя целиком объяснить аналитически, вопрос о мастерстве
владения навыками может вызвать серьезные затруднения. Искусство, процедуры которого
остаются скрытыми, нельзя передать с помощью предписаний. Оно может передаваться
только посредством личного примера, от учителя к ученику. Это сужает ареал
распространения искусства до сферы личных контактов и приводит обычно к тому, что то
или иное мастерство существует в рамках определенной местной традиции. Точно так же,
хотя содержание науки, заключенное в ясные формулировки, преподается сегодня во всем
мире в десятках новых университетов, неявное искусство научного исследования для многих
из них остается неведомым. Европа, где 400 лет назад зародился научный метод, до сих пор
является более продуктивной в плане науки, несмотря на то, что на некоторых других
континентах на научные исследования выделяется больше средств. Из этого также следует,
что искусство, которое не практикуется в течение жизни одного поколения, оказывается
безвозвратно утраченным. Учиться на примере — значит подчиняться авторитету. Вы
следуете за учителем, потому что верите в то, что он делает, даже если не можете детально
проанализировать эффективность этих действий. Наблюдая учителя и стремясь превзойти
его, ученик бессознательно осваивает нормы искусства, включая и те, которые неизвестны
самому учителю. Этими скрытыми нормами может овладеть только тот, кто в порыве
самоотречения отказывается от критики и всецело отдается имитации действий другого.
Говоря о познании как навыках практической деятельности, Полани выходит на
разговор о знатоках и экспертах. Стать знатоком, так же как и стать умельцем, можно лишь в
результате следования примеру в непосредственном личном контакте; здесь не помогут
никакие инструкции. Можно допустить, что если в науке и технике применяется экспертиза
или привлекаются знатоки, то это делается по той простой причине, что измерением их не
заменить. Измерению присуща большая объективность, благодаря которой его результаты
являются устойчивыми независимо от того, где и как оно осуществляется. Из сказанного
можно сделать вывод, что в самом сердце науки существуют области практического знания,
которые через формулировки передать невозможно. Поэтому Полани предлагает различать
два рода знания: «знания что» и «знания как».
Как уже говорилось выше, Полани считает очень важным различать фокус и
периферию сознания. Эти два ракурса являются взаимоисключающими: если играющий
пианист переключает внимание с исполняемого произведения на движения своих пальцев,
он сбивается и прерывает игру. Неловкость, возникающая при перемещении фокуса
сознания на вспомогательные элементы действия, широко известна как застенчивость.
Поскольку сосредоточение на деталях парализует само действие, Полани говорит о
недетализируемом действии. Здесь и заложен тот нерв, который связывает концепцию
Полани с гештальт-психологией (изображение или мелодия должны восприниматься как
нечто целое, только так они обретут смысл).
112
Полани дополняет противопоставление фокусного и периферического сознания
противопоставлением частей нашего тела и внешних по отношению к нам вещей. Как
правило, мы совершенно уверены в том, что наши руки и ноги — члены нашего тела, а не
внешние объекты; эта уверенность бывает поколеблена лишь в случае болезни этих органов.
Некоторые психические заболевания сопровождаются ощущением, что какие-то части тела
не принадлежат человеку. Периферическое осознание инструментов аналогично осознанию
частей нашего тела. Например, когда мы используем какой-либо инструмент (молоток или
палку-щуп), то фокус сознания смещается на точку соприкосновения этого инструмента с
объектами - гвоздем или ощупываемой поверхностью. Именно эти объекты выступает для
нас как внешние, инструменты же остаются «по эту сторону», выступают как часть нас
самих, часть оперирующей личности. Объект превращается в инструмент, попадая в
операциональное поле, созданное нашим целенаправленным действием, и выступая в этом
поле как продолжение нашего тела. Мы включаем инструмент в сферу нашего бытия; он
служит нашим продолжением. Мы сливаемся с инструментом экзистенциально.
Обращаясь к науке, мы, вместо молотка, можем говорить об интеллектуальных
инструментах – неких предпосылках, лежащих в основе научного метода. Большинство этих
предпосылок мы усваиваем, когда учимся говорить на определенном языке, содержащем
названия разного рода объектов, которые позволяют классифицировать эти объекты, а также
различать прошлое и будущее, мертвое и живое, здоровое и больное и тысячи других вещей.
В наш язык входят и числа, и начала геометрии; это позволяет говорить о законах природы, а
затем переходить к более глубокому их изучению на основе научных наблюдений и
экспериментов. Полани считает, что все попытки зафиксировать предпосылки науки
оказались тщетными, потому что реальные основания научных убеждений выявить вообще
невозможно. Принимая определенный набор предпосылок и используя их как
интерпретативную систему, мы как бы начинаем жить в этих предпосылках, подобно тому,
как живем в собственном теле. Некритическое их усвоение представляет собой процесс
ассимиляции, в результате которого мы отождествляем себя с ними. Механизм ассимиляции
научных понятий дает возможность ученому осмысливать опыт. Осмысление опыта —
особое умение, предполагающее личный вклад ученого в то знание, которое он получает.
Оно включает в себя искусство измерения, искусство наблюдения, позволяющие создавать
научные классификации. В познании инструментом может выступать знак или символ, и тут
знак или символ смещается на периферию сознания, сфокусированном на том, что мы
обозначаем. Это можно назвать ассимиляцией понятийных и символических систем,
которые благодаря присутствию их в периферическом сознании становятся нашим
продолжением. Такие акты ассимиляции можно назвать еще актами самоотдачи, способом
реализации собственной личности.
113
Литература
Рекомендуемая литература (основная)
1. Баженов Л.Б. Строение и функции естественнонаучной теории. М., 1978.
2. Бэкон Ф. Новый органон // Бэкон Ф. Соч. В 2 т. М., 1978. Т.2.
3. Витгенштейн Л. Логико-философский трактат. М., 1958.
4. Гадамер Г.-Г. Истина и метод. М., 1988.
5. Горохов В.Г. Концепции современного естествознания и техники. М., 2000.
6. Гайденко П.П. Эволюция понятия науки. Становление первых научных программ.
М., 1980.
7. Галилей Г. Диалог о двух главнейших системах мира. М., 1948.
8. Гемпель К. Логика объяснения. М., 1998.
9. Декарт Р. Рассуждение о методе. // Декарт Р. Соч. В 2 т.М., 1989.
10. Дильтей В. Введение в науки о духе. // Зарубежная эстетика и теория литературы.
Трактаты. Статьи. Эссе. М., 1987.
11. Идеалы и нормы научного исследования. Минск, 1981.
12. Кезин А.В. Научность: эталоны, идеалы, критерии. М., 1985.
13. Кузнецов В.Г. Герменевтика и гуманитарное познание. М., 1991.
14. Лакатос И. Доказательства и опровержения. М., 1967.
15. Лакатос И. Фальсификация и методология научно-исследовательских программ. М.,
1995.
16. Лебедев С.А. Основные линии развития классической индукции. Индуктивная логика
и формирование научного знания. М., 1987
17. Лекторский В.А. Субъект. Объект. Познание. М., 1980.
18. Лоренц К. Оборотная сторона зеркала. М., 1998.
19. Мамчур Е.А. Проблема выбора теории. М., 1975.
20. Микешина Л.А. Методология научного познания в контексте культуры. М., 1992.
21. Миронов В.В. Образы науки в современной культуре и философии. М., 1997.
22. Наука в зеркале философии ХХ в. М., 1992.
23. Научные революции и динамика культуры. Минск, 1987.
24. Никифоров А.Л. Философия науки: История и методология. М., 1998.
25. Никитин Е.П. Объяснение – функция науки. М., 1970.
26. От логического позитивизма к постпозитивизму. Хрестоматия. М.: НИИВО ИНИОН,
1993.
27. Панин А.В. Диалектический материализм и постпозитивизм. М., 1981.
28. Полани М. Личностное знание. М., 1985.
29. Поппер К.Р. Логика и рост научного знания. М., 1983.
30. Пуанкаре А. О науке. М., 1983.
31. Риккерт Г. Науки о природе и науки о культуре. М., 1998.
32. Рузавин Г.И. Логика и методология научного поиска. М., 1986.
33. Современная философия науки: Знание, рациональность, ценности в трудах
мыслителей Запада. Хрестоматия. М., 1996.
34. Степин В.С. Современная философия науки. Хрестоматия. М.: Наука 1994.
35. Степин В.С. Становление научной теории. Минск, 1976.
36. Степин В.С. Теоретическое знание. М., 2000.
37. Структура и развитие науки. М., 1978.
38. Фейерабенд П. Избранные труды по методологии науки. М., 1986.
39. Фуко М. Археология знания. Киев, 1996.
Рекомендуемая литература (дополнительная)
1. Автономова И.С. Рассудок, разум, рациональность. М., 1988.
114
2. Башляр Г. Новый рационализм. М., 1987.
3. Бернал Д. Наука в истории общества. М., 1958.
4. Бунге М. Интуиция и наука. М., 1967.
5. Вебер М. Избранные произведения. М., 1990.
6. Венцковский Л.Э. Философские проблемы развития науки. М., 1982.
7. Друянов Л.А. Законы природы и их познание. М., 1982.
8. Злобин Н. Культурные смыслы науки. М., 1997.
9. Истина и ценности в научном познании. М., 1991.
10. Келле В.Ж. Наука как компонент социальной системы. М., 1988.
11. Косарева Л.М. Социокультурный генезис науки Нового времени: Философский
аспект проблемы. М., 1989.
12. Кохановский В.П. Философия и методология науки. Ростов, 1999.
13. Кун Т. Структура научных революций. М., 1975.
14. Лоренц К. Эволюция и априори // Вестник Московского Университета, серия
«Философия», 1994, № 5
15. Лукашевич В.К. Научный метод: структура, обоснование, развитие. Минск, 1990.
16. Малкей М. Наука и социология знания. М., 1983.
17. Мамчур Е.А., Овчинников Н.Ф., Огурцов А.П. Отечественная философия науки:
Предварительные итоги. М., 1997.
18. Меркулов И.П. Гипотетико-дедуктивная модель и развитие научного знания. М.,
1980.
19. Микешина Л.А. Детерминация естественнонаучного знания. Л., 1977.
20. Микешина Л.А., Опенков М.Ю. Новые образы познания и реальности. М., 1997.
21. Наука о науке. М., 1966.
22. Научная деятельность: структура и институты. М., 1980.
23. Научные и вненаучные формы мышления. М., 1996.
24. Наука в социальном, гносеологическом и ценностном аспектах. М., 1980.
25. Научный прогресс: Когнитивные и социокультурные аспекты. М., 1993.
26. Новая технологическая волна на западе. М., 1986.
27. Огурцов А.П. Философия науки эпохи Просвещения. М., 1993.
28. Очерки по истории и теории развития науки. М., 1969.
29. Позитивизм и наука. М., 1975.
30. Познание в социальном контексте. М., 1994.
31. Поппер К.Р. Логика социальных наук // Вопросы философии. 1992.
32. Поппер К.Р. Открытое общество и его враги. М., 1992.
33. Поппер К.Р. Нищета историцизма. М., 1993.
34. Проблемы методологии постнеклассической науки. М., 1992.
35. Пиаже Ж. Избранные психологические труды. М., 1969.
36. Ракитов А.И. Философские проблемы науки. М., 1977.
37. Ракитов А.И. Анатомия научного знания. М., 1969.
38. Рожанский И.Д. Античная наука. М., 1980.
39. Рузавин Г.И. Математизация научного знания. М., 1984.
40. Рузавин Г.И. Методы научного исследования. М., 1974.
41. Степин В.С. Философская антропология и философия науки. М., 1992.
42. Степин В.С., Горохов В.Г., Розов М.А. Философия науки и техники. М., 1996.
43. Творческая природа научного познания. М., 1984.
44. Теоретическое и эмпирическое в научном познании. М., 1984.
45. Теория и метод. М., 1987.
46. Тоффлер Э. Третья волна. М., 1999.
47. Тулмин С. Человеческое понимание. М., 1984.
48. У истоков классической науки. М., 1975.
115
49. Федотова В.Г. Критика социокультурной ориентации в современной буржуазной
философии. М., 1981.
50. Философия и методология науки. М., 1996.
51. Философия и методология науки: В 2-х ч. М., 1974.
52. Философия науки: Проблема рациональности. М., 1995.
53. Философия техники в ФРГ. М., 1989.
54. Франк Ф. Философия науки. М., 1960.
55. Фролов И.Т., Юдин Б.Г. Этика науки. М., 1987.
56. Фуко М. Надзирать и наказывать. СПб., 1999.
57. Фолмер Г. Эволюционная теория познания. М., 1998.
58. Холтон Д. Тематический анализ науки, М., 1981.
59. Хюбнер К. Критика научного разума. М., 1994.
60. Швырев В.С. Теоретическое и эмпирическое в научном познании. М., 1978.
61. Швырев В.С. Сциентизм и антисциентизм как типы мировоззренческой ориентации в
условиях НТР // Филос. науки., 1974.
62. Штофф В.А. Проблемы методологии научного познания. М., 1978.
63. Эволюционная эпистемология: Проблемы и перспективы. М., 1996.
64. Эйнштейн А. Физика и реальность. М., 1965.
65. Юдин Б.Г. Методологический анализ как направление изучения науки. М., 1986.
116
117
Download