Метрическая система мер - Городской методический центр

advertisement
Метрическая система мер
Измерение массы товаров, их длины, объема является весьма трудоемким
процессом, который многократно повторяется и исчисляется ежедневно
многими миллионами операций. Это особенно характерно для торговли
продовольственными товарами, где большинство операций по подготовке к
продаже и при продаже включает обязательное взвешивание. Взвешивают
также некоторые хозяйственные товары, строительные материалы. Измеряют
товары в натуральных показателях при их дозировании и фасовке, при
выполнении большинства операций по приему и отпуску на складах.
История развития
Интенсивное развитие промышленности и науки, а также расширение
торговых связей между различными государствами в XIX в. явились
основными причинами, стимулировавшими возникновение и прогресс
метрологии как науки и постановку в качестве основной ее проблемы
создание единой международной системы единиц, которая охватывала бы все
области измерений.
Первоначальными этапами решения этой проблемы были установление и
международное распространение Метрической системы мер и весов,
разработка научных основ построения систем взаимосвязанных единиц
физических величин, характеризующих широкий круг явлений природы,
создание и практическое внедрение систем СГС, МКГСС, МТС, МКС и др.
Многие из этих систем единиц имели ограниченную область применения и
не были взаимосвязаны друг с другом. Одновременно с созданием систем
единиц в результате стремления обеспечить максимальные удобства для
измерения и записи значений тех или иных физических величин в ряде
отраслей науки и техники появилось большое количество разнообразных
внесистемных единиц. Из-за этого сложилось такое положение, что для
одной и той же величины использовалось большое количество разных
единиц (например, для силы применялось более 10 единиц, для энергии и
работы - свыше 30, для давления - 18 единиц и т.д.).
Разработка и внедрение
Разработка и внедрение Метрической системы мер – это первый шаг по
устранению
множественности
единиц
физических
величин
и
воспроизводящих их мер, которая тормозила развитие промышленности и
торговли.
В период французской буржуазной революции по настоянию торговопромышленных кругов Национальное Собрание Франции 31 марта 1791 г.
приняло подготовленное Специальной комиссией, в состав которой входили
известные французские ученые того времени (Лаплас, Лагранж, Борда,
Кондорсе, Монж и др.), предложение о введении в качестве единицы длины –
метра, равного одной десятимиллионной доле четверти земного меридиана.
Эта единица длины была окончательно утверждена 10 декабря 1799 г., став
основой метрической системы. В качестве ее прототипа (первоначального
эталона) был избран платиновый стержень. Второй единицей Метрической
системы явилась единица массы – килограмм, которая первоначально
равнялась массе в вакууме кубического дециметра воды при ее наибольшей
плотности (4 °С) в месте, находящемся на уровне моря и на широте 45°.
Прототипом этой единицы служила платиновая гиря. Прототипы метра и
килограмма хранятся в Национальном Архиве Франции и называются "метр
Архива" и "килограмм Архива" соответственно.
Важным достоинством Метрической системы мер была ее десятичность, так
как дольные и кратные единицы, согласно принятым правилам,
образовывались в соответствии с десятичным счетом с помощью десятичных
множителей, которым соответствуют приставки деци, санти, милли, дека,
гекто и кило.
Международная дипломатическая конференция семнадцати государств
(Россия, Франция, Англия, США, Германия, Италия и др.) 20 мая 1875 г.
приняла Метрическую конвенцию, в которой Метрическая система мер
признавалась международной, утверждались прототипы метра и килограмма.
Конференцией было учреждено Международное бюро мер и весов, основной
задачей которого было обеспечение единства измерений в международном
масштабе, и образован Международный комитет мер и весов, который
осуществлял научное руководство этой работой, подготавливал и проводил
Генеральные конференции по мерам и весам (ГКМВ). Первая из них была
проведена в 1889 г.
Закон о Метрической системе
foto28
В результате больших усилий, приложенных Главным хранителем Палаты
мер и весов великим русским ученым Д. И. Менделеевым – горячим
сторонником Метрической системы мер, в России 4 июля 1899 г. был принят
закон, по которому с января 1900 г. разрешалось Метрическую систему
применять "наравне с основными российскими мерами". Но только в
сентябре 1918 г. в России была официально введена Метрическая система
мер. Полный переход к метрической системе был завершен к 1 января 1927 г.
После завершения в 1934 г. большой и важной работы по разработке и
утверждению стандартов на единицы физических величин для всех областей
науки и техники была поставлена задача их совершенствования и устранения
существенных недостатков, которые были присущи этим стандартам.
Главный недостаток состоял в том, что стандарты для различных областей
применения основывались на разных системах единиц.
В послевоенный период основные усилия направлялись на разработку
стандартов, построенных на базе единой системы единиц. С 1955 по 1958 гг.
Комитет стандартов, мер и измерительных приборов утвердил новые ГОСТы
на единицы для всех областей измерений. Установление новых стандартов
происходило в период разработки Международной системы единиц,
являющейся современной формой Метрической системы, которая базируется
на системе МКСА. Поэтому и новые стандарты в своей основе исходили из
этой системы. Как и в СИ, в стандартах произведено четкое разграничение
единицы массы (килограмма) и единицы силы (ньютона), отсутствие
которого до этого часто вызывало путаницу между единицей силы в системе
МКГСС и единицей массы в системе МКС.
Меры англоязычных и других стран
Кроме таких мер как ярд, фут, шток, дюйм, англичане используют и
своеобразные денежные системы: фунтами стерлингов, шиллингами и
пенсами. От подобных денежных систем отказались все государства мира, но
единицы физических величин все еще используются в англоязычных
странах. Английские меры длины представлены в виде: 1 ярд = 3 футам; 1
фут = 12 дюймам; 1 миля = 5280 футам = 1760 ярдам.
Единицы объема – 1 галлон = 4 квартам = 231 кубическому дюйму, а веса – 1
фунт = 16 унциям; 1 топка = 200 фунтам. Англичане и американцы,
пользуясь этими мерами, давно пришли к выводу, что их система неудобна и
начали внедрять десятичную систему.
Петр I был первым, кто попытался связать русскую и английскую системы
мер. По его указу аршин был уравновешен с 28 английскими дюймами, так
чтобы сажень соответствовала семи английским футам. Русская сажень до
“подгонки “ ее под английские футы равнялась 216 см., а затем сравнялась до
213,36 см., об этом свидетельствует подлинная линейка царя Петра I. Затея
Петра I долго «обмозговывалась» учеными и только в 1835 г. Указ
окончательно определил: “Основанием российской линейной меры оставить
навсегда сажень в семи настоящих английских футах с разделением на три
аршина, каждый на 28 дюймов или 16 вершков”.
Фунт и дюйм, которыми пользовались в России, точно совпадают с
английскими мерами, а ведь параллельно употреблялись исконно русские
меры. Таким образом, применялись системы мер, невыраженные целыми
числами. Так, например: 1 фут = 66/7 вершка, а один вершок = 13/4 дюйма.
Это было конечно неудобно. Неудобства сохранились и при переходе нашей
страны к метрической системе мер. В англоязычных странах метрическая
система мер официально была признана в 1879 году, но полный переход не
завершен даже сейчас, национальные меры не сдаются, такова сила
привычки у людей и пассивность правительства этих стран.
Древнерусские меры
Признав целесообразность перехода к десятичной метрической системе, мы
все еще пользуемся мерами наших предков. Даже в государственных отчетах
урожаи оцениваются у нас в миллиардах пудов.
В разговоре до сих пор употребляем такие слова как, верста, золотник, фунт,
ведро.
Дореволюционные
литературные
произведения
заставляют
возвращаться к старорусским мерам. А.С. Пушкин, например, писал: “Он,
правда, в туз из пистолета в пяти саженях попадал”.
“Болезнь входит пудами, а уходит золотниками”,- гласит народная
пословица.
Когда появились русские меры – трудно определить, известно, что
документы X века свидетельствуют не только о наличии мер, но и
провозглашают принципы государственного надзора за их правильностью.
Меры неразрывно связаны с числами. Старославянская азбука оперировала
огромными числами, как например, “Колода” – 1049.
Метрология – это не только наука об измерениях, это еще вспомогательная
историческая дисциплина, изучающая историю сложения систем мер.
Древнейшей на Руси единицей денежного счета и веса была гривна, весила
она 409,6 г. Говорят, что гривна произошла от слова “грива”, потому что по
количеству серебра гривна, равнялась цене коня, а гривенка – половина
гривны и вес ее был 204,8 г.
В XIV в. появился “рубль”, очевидно от слова “рубить”, так как гривну стали
рубить пополам – на гривенники. При малолетнем Иване IV в 1535 г. были
выпущены моты с рисунком всадника с копьем в руке, которые получили
название копейных денег, отсюда произошло слово “копейка”. При Петре I
были выпущены гривенники – 10 копеек, полтинники – 50 копеек, а также
копейки, равные двум деньгам, а отныне равные шести деньгам.
В 1769 году в России появились первые бумажные деньги, реальная
стоимость бумажного рубля тогда составляла 100 копеек серебром и
опустилась до 25 копеек к 1810 г., а в 1839 г. серебряный рубль
приравнивался 3 рублям 50 копейкам ассигнациями.
В 1897 г. основой денежной системы стал золотой рубль, содержащий 17,424
доли золота. Доля собой представляла единицу веса, равную 0,0444 грамма и
была самой малой единицей веса в дореволюционной системе мер.
1 золотник равный 4,2657 г., составляли 96 долей.
В систему единиц веса в начале XX века входили также:
1 берковец = 10 пудам = 163,80496 кг;
1 пуд = 40 фунтам = 16,3005 кг;
1 фунт = 32 лотам = 409,51241 г;
1 лот = 3 золотникам = 12,797 г
Меры длины на Руси имели свою историю, их содержание и сажени и версты
менялось со временем. Основной путевой мерой в XI в. была верста, которая
равнялась 750 саженям и ее длина в метрах составляла 1140 м. Мера пути
“выпряжой” равнялась расстоянию между пунктами, в которых перепрягали
лошадей, при перевозке казенной почты. В Киевской Руси сажень простая
равнялась 152 см – это было расстояние между размахом вытянутых рук
человека от большого пальца одной руки, до большого пальца другой.
Сажень мерная, или как ее называли “маховая” равнялась 176 см, здесь
учитывалось расстояние с кончика пальцев одной руки до конца пальцев
другой; сажень косая – 248 см, между подошвой левой ноги и концом
среднего пальца вытянутой вверх правой руки.
В 1649 году Соборным уложением были утверждены верста равная 2,16 км и
сажень 2,16 метра, равная 3 аршинам или 48 вершкам. В XVI веке появился
аршин – от персидского слова “арш” – локоть и равнялся 72 см. К началу XX
века Россия пришла с такими мерами длины, как:
1 миля = 7 верстам = 7,468 км;
1 верста =560 саженям = 1066,80 м;
1 сажень = 3 аршинам = 7 футам = 100 сеткам = 2,1336 м;
1 аршин = 16 версткам = 28 дюймам = 0,711м;
1фут = 12 дюймам = 30,48 см;
1 дюйм = 10 линиям = 25,4 мм;
1 вершок = 44,38 мм;
1 линия = 10 точкам = 2,54 мм.
Из мер жидких тел Древней Руси известны такие меры, как бочка, ведро,
корчага, кружка, чарка. Корчагами мерили мед, воск, и равнялась она 12кг.
Уже к ХХ веку мы имели такие меры объема для жидкостей:
1 бочка = 40 ведрам = 491,97636 л;
1 ведро = 4 четвертям = 10 штофам = 20 водочным бутылкам = 16 винным
бутылкам = 100 чаркам = 200 получаркам или шкаликам = 12,2994 г.
Впервые древнерусские меры как единую систему представил академик
Рыбаков Б.А., который писал: ”Одним из существенных отличий русской
народной метрологии от древнегреческой, римской или византийской и
западноевропейской, является принцип постепенного деления на 2… ”.
“Полусажень”, «локоть”, представляющий четвертую часть сажени.
Русские меры – достояние нашей культуры и мы вправе гордиться своими
предками, их разумными решениями в деле торговли и взаимных расчетов.
Появление международной системы
10 декабря 1979 года правительство Франции, во главе которого стоял
Наполеон, признало метр, а значит и метрическую систему. Закон, принятый
правительством Франции утверждал: “Будет изготовлена медаль, чтобы
передать памяти потомства время, когда система мер была доведена до
совершенства, и операцию, которая послужила ей основой. Надпись на
лицевой стороне медали будет: “На все времена, для всех народов”, а внизу:
“Французская республика, VIII год”. Хотя медаль и не была выбита, ее девиз
сохранила история. Революционное происхождение метрической системы
мер мешало ее распространению в других странах, даже восстановление
королевской власти во Франции в 1815 году содействовало ее забвению.
Только в 1875 году в Париже дипломатической конференцией состоящей из
20 стран, была подписана “Конвенция метра для обеспечения единства и
совершенствования метрической системы”, после чего появилось
Международное бюро мер и весов. Большую роль сыграла русская наука в
деле превращения метрической системы мер в международную.
Конференция в Париже 1875 года была создана по инициативе
Петербургской Академии Наук. Русские представители в своем отчете
писали: “…Ученый мир обязан России тем, что упомянутая реформа
проведена на основаниях, ею выработанных с самого начала и все время
поддерживаемых ею против расходившихся иной раз мнений”.
14 сентября 1918 года Совет Народных Комисаров РСФСР под
председательством В.И. Ленина принял постановление “Положить в
основание всех измерений международную метрическую систему мер и
весов с десятичными подразделениями и производными. Принять за основу
единицу длины – метр, а за основу единицы веса – килограмм. За образцы
основных единиц метрической системы принять копию международного
метра, носящую знак № 28, и копию международного килограмма, носящую
знак № 12, изготовленные из иридиевой платины, переданные России I
Международной Конференцией Мер и Весов в Париже в 1889 году и
хранимые ныне в Главной Палате Мер и Весов в Петрограде”.
Единственно допускаемой в СССР системой мер и весов метрическая
система стала с 1 января 1927 года.
Развитие и рост международных связей настоятельно требовали
единообразия единиц в международном масштабе, и только в октябре 1960
года собирается XI Генеральная Конференция по мерам и весам, на которой
присутствовали представители 32 стран.
Международная комиссия, возглавляемая советским профессором Г.Д.
Бурдуном, представляет Генеральной Конференции проект Международной
системы СИ. Система утверждается.
С первого января 1963 года этой системой пользуются как
предположительной во всех областях науки, техники народного хозяйства,
при преподавании в нашей стране. Новая система универсальна и охватывает
все отрасли науки и техники, в ней воедино связаны все величины.
Построены системы на основе десятичного принципа: кратны и дольные
единицы образуются путем умножения или деления на 10. Исключение
сделано для единиц времени, для которых исторически традиционным
осталось деление на 60 и 12, хотя доли секунды уже подлежат делению на
10,100 и т.д.
Международная система единиц законодательно введена в нашей стране
ГОСТ 8.417-81 (СТ СЭВ 1052-78) «СИ. Единицы физических величин».
Самый “консервативный” из эталонов основных единиц СИ – килограмм. Он
так и остался равным массе международного прототипа, хранящегося в
Бретейльском павильоне парка Сен-Клу в окрестностях Парижа. Прототип
килограмма вместе с двумя контрольными копиями хранятся там с 1889 года.
За величину килограмма был принят архивный килограмм, т.е. масса
1,000028 дц3 воды при температуре наибольшей плотности равной 40С.
Метр – был определен как длина 1/40000000 доли меридиана или
платинового, а затем платиноиридиевого Х-образного эталона. Эталон метра
№ 28, полученный Россией, имел в 1888-1889 годах длину 1метр + 0,47 мкм.
Сличение его с парижским эталоном в 1936 году дало уже длину 1 метр +
0,71 мкм. Появилась необходимость связать длину эталона с более
постоянной природной величиной. Майкельсон установил, что в метре
укладывается 1553163,5 длины волны красной линии кадмия. Метрологи
признали целесообразность такого определения метра в 1937 году и, уточнив,
определили, что метр есть 15553164,13 длины красной линии кадмия при
определенных внешних условиях. В 1939 году на Международной
Конференции предлагалось утвердить определение метра, но не смогли из-за
начала войны. Только послевоенные метрологи, не отвергая идею
определения метра доказали экспериментально, что для этой цели
целесообразно использовать криптон-86. Отныне метр равен 1650763,73 длин
волн в вакууме излучения, соответствующий переходу между уровней 2р10 и
5d5 атома криптон-86. Теперь по этому определению длина метра может
быть восстановлена в любом месте и в любое время, потому что точность
сравнения длин волн между собой значительно выше точности сравнения
металлических эталонов длины.
Воспроизведение эталонами единиц физических величин, поддержание их в
работоспособном состоянии, обеспечение их сохранности, сличение с
эталонами образцовых, а с ними, в свою очередь, рабочих средств измерений
позволяет метрологам обеспечивать единство измерений.
Английская система мер используется в Великобритании, США и других
странах. Отдельные из этих мер в ряде стран несколько различаются по
своему размеру, поэтому ниже приводятся в основном округлённые
метрические эквиваленты английских мер, удобные для практических
расчётов.
Постепенно меры английской системы вытесняются метрической системой
мер.
kipstory.ru
В ПОГОНЕ ЗА ТОЧНОСТЬЮ:
ЕДИНЫЙ ЭТАЛОН ВРЕМЕНИ — ЧАСТОТЫ — ДЛИНЫ
Доктор технических наук Анатолий ГОЛУБЕВ
Человек живёт во времени и пространстве, и уже в глубокой древности
появилась необходимость измерять время и длину — характеристику
пространства. Измерить — значит сравнить измеряемую величину с другой
величиной того же рода, называемой единицей измерения. Эта единица
должна быть чётко определённой и неизменной величиной — эталоном.
Созданием эталонов занимается наука, именуемая метрологией. За эталон
времени принята секунда, за эталон длины — метр. Но вот как их
определить? Скажем, секунда — это промежуток времени, в течение
которого… что? Метр — это расстояние, равное… чему? Эти вопросы
отнюдь не просты. Посмотрим, как отвечает на них современная метрология.
ВРЕМЯ
Эталоны для измерения времени должны быть основаны на периодических
процессах, период которых постоянен с большой точностью. Первоначально
единственным известным процессом такого рода было вращение Земли
вокруг своей оси, и единица времени — секунда — определялась как 1/86
400 часть периода этого вращения, то есть суток. Длительность же суток
определялась из двух последовательных наблюдений прохождения какогонибудь небесного светила через плоскость меридиана места наблюдения.
Уже древние астрономы убедились в том, что длительность интервала между
двумя прохождениями Солнца через плоскость меридиана не совпадает с
длительностью интервала, определённого по наблюдениям любой из
«неподвижных»
звёзд: солнечные сутки
оказались
на
4
минуты
больше звёздных. Это следствие движения Земли по орбите (вращение Земли
вокруг оси и её орбитальное движение происходят в одном направлении).
Пользоваться звёздным временем неудобно, так как вся наша жизнь связана
со сменой дня и ночи, с солнечными сутками. Но определить их
продолжительность с большой точностью весьма сложно: во-первых, Солнце
слишком «велико»; во-вторых, солнечное излучение нагревает и
деформирует точные приборы и, наконец, длительность солнечных суток
изменяется в течение года вследствие изменения скорости движения Земли
по орбите. Поэтому непосредственное определение периода вращения Земли
выполняется по наблюдению звёзд, а для практических целей учитывают
разницу между звёздными и солнечными сутками. Так возникло
своеобразное положение, при котором мы пользуемся солнечным временем,
определяя его по звёздам.
Так как истинные солнечные сутки не остаются одинаковыми в течение года,
то в повседневной жизни за основную единицу времени принимают средние
солнечные сутки, рассчитанные в предположении равномерного движения
Земли по орбите. Время в таких сутках называют средним временем.
Понятно, что его значение меняется с изменением географической долготы
места: когда в Москве 12 часов дня, то, скажем, в Красноярске уже 16 часов,
то есть возникает понятие местного времени. Местное среднее время на
Гринвичском меридиане называют всемирным временем и обозначают UT
(Universal Time). Это всемирное время положено в основу создания
нескольких астрономических шкал времени.
Прежде всего заметим, что, хотя UT — среднее солнечное время, то есть
определено из условия равномерного движения Земли по орбите, на его
основе трудно создать равномерную шкалу по той причине, что положение
любого меридиана, и в частности Гринвичского, подвержено изменениям изза вращения Земли. Происходит это потому, что Земля — не абсолютно
твёрдое тело: массы в ней непрерывно перераспределяются, вследствие чего
полюса Земли незначительно (до 10—15 м) меняют положение, вызывая
смещение меридианов, их соединяющих.
Существует несколько модификаций шкал всемирного времени. Из
наблюдений суточных движений звёзд получается всемирное время UT0, не
образующее равномерной шкалы. Если учесть поправку за смещение
мгновенного полюса относительно его среднего положения, получим более
равномерную шкалу UT1. Если принять во внимание ещё и сезонные
вариации угловой скорости вращения Земли, получим более равномерную
шкалу UT2. Наконец, учёт действия приливных явлений даёт шкалу UT1R.
Неравномерность суточного вращения и орбитального движения Земли не
позволяет создать строго равномерные шкалы времени. Поэтому была
введена ещё одна шкала — эфемеридное время, названное
позже динамическим временем. Под ним понимают аргумент в
дифференциальных уравнениях движения тел Солнечной системы в
гравитационном поле. Это равномерно текущее время используют при
определении эфемерид (элементов кеплеровой орбиты) спутников.
Любое время измеряют при помощи часов. После того как Галилей создал
теорию маятника, а Гюйгенс изобрёл вращающийся балансир, появились
маятниковые часы. И вскоре лучшие из них позволили обнаружить
систематическое замедление суточного вращения Земли, вызванное
океаническими приливами.
После изобретения кварцевых часов, в которых роль колебаний маятника
играют упругие колебания кварцевых пластинок под действием
электрического напряжения (пьезоэффект), было установлено, что и при
учёте регулярного замедления длительность суток все же непостоянна — она
может изменяться в обе стороны на тысячные и даже сотые доли секунды.
К середине XX века стало ясно, что точность лучших часов превзошла
точность нашего природного эталона времени — суток. Возможности
астрономических методов измерения времени оказались исчерпанными.
Принципиально новые и более точные методы измерения времени пришли из
радиоспектроскопии и квантовой электроники.
Каждый атом или молекула избирательно поглощает или излучает не только
свет, но и радиоволны определённой длины волны λ, или частоты f, которые
характеризуются непревзойдённым постоянством. Это позволило создать
квантовые стандарты частоты, а следовательно, и времени (вспомним, что
частота — величина, обратная периоду, то есть времени одного колебания) и
построить шкалу атомного времени AT, задаваемую конкретным атомным
или молекулярным эталоном.
Шкала АТ практически совершенно равномерна. В ней единицей измерения
служит атомная секунда — промежуток времени, в течение которого
совершается 9 192 631 770 колебаний, соответствующих резонансной частоте
энергетического перехода между уровнями сверхтонкой структуры
основного состояния атома цезия-133 (133Cs). Другими словами, за атомную
секунду совершается число периодов колебаний цезиевого генератора,
равное его частоте, составляющей 9 192 631 770 Гц (~ 9,2 Ггц). Стабильность
этой частоты очень высока (то есть относительная нестабильность ∆f/f, где ∆f
— уход частоты, очень мала). Кроме цезиевого в качестве стандартов
частоты используют также рубидиевый и водородный генераторы
(последний наиболее стабилен, см. таблицу).
Существует Международное атомное время ТАI (от французского
названия Temps Atomic International). Оно устанавливается на основе
показаний атомных часов в различных метрологических учреждениях в
соответствии с приведённым выше определением атомной секунды.
Так как шкалы AT и UT не согласуются между собой, введена
промежуточная шкала, называемая всемирным координированным
временем UTС (Universal Time Coordinated). Это атомное время, которое
корректируется на 1 с, когда его расхождение с UT1 превышает 0,5 с.
Коррекция производится в последнюю секунду 30 июня или 31 декабря либо
в обе даты.
Приведённое выше определение атомной секунды принято международными
организациями в 1967 году, и в том же году на основе этого определения в
СССР был создан новый Государственный эталон времени и частоты.
Современный его вариант включает в себя цезиевый и водородный
генераторы и обеспечивает хранение и воспроизведение секунды и герца с
погрешностью, близкой к 1·10-14.
foto23
Стронциевые часы. В перекрестье шести лазерных лучей образуется оптическая
ловушка, удерживающая ионы стронция, которые излучают на частоте 429 терагерц
(красный свет).
ДЛИНА
Обратимся теперь к единице длины — метру. Его история также довольно
интересна. Впервые понятие метра появилось во Франции в период Великой
французской революции. Учёные того времени решили заимствовать
единицу измерения длины, так сказать, из самóй природы, и в качестве
неизменного прототипа длины специальная комиссия Французской академии
наук предложила взять длину одной десятимиллионной доли четверти
Парижского
меридиана.
Это
расстояние
и
назвали
метром
(metrevraietdefinitif — метр подлинный и окончательный). После этого были
проведены измерения длины дуги Парижского меридиана между Дюнкерком
и Барселоной, на основании которых, а также в соответствии с
теоретическим определением изготовили образец метра в виде платиновой
линейки — концевой меры шириной около 25 мм и толщиной 4 мм. Эта мера
сдана в архив Французской республики, поэтому её в дальнейшем стали
называть «архивным метром». Но далее оказалось, что вследствиевсё
возрастающей точности геодезических измерений значения метра и
соответствующей части меридиана будут расходиться. Кроме того, длина
меридианов, как уже отмечалось выше, не остаётся строго постоянной из-за
смещения полюсов. И тогда решили больше не связывать значение меры
длины с одной сорокамиллионной частью Парижского меридиана. Метр
перестал быть «естественной» мерой.
За точное значение метра был принят так называемый международный
прототип, выбранный следующим образом. Изготовили 31 эталон в форме
стержней Х-образного сечения из платиноиридиевого сплава с двумя
штрихами, расстояние между которыми равно размеру метра, и провели
сравнение этих эталонов с «архивным метром». В пределах точности
измерений эталон № 6 при 0оС оказался равным длине «архивного метра», и
в 1889 году на I Генеральной конференции по мерам и весам его приняли в
качестве международного прототипа метра. Он хранится в Международном
бюро мер и весов в городе Севре (близ Парижа). Из оставшихся 30 эталонов
28 были распределены по жребию между странами, участвовавшими в
конференции 1889 года, а два оставлены как «эталон-копия» и «эталонсвидетель». Россия получила два эталона метра: № 11 и № 28. Последний
декретом Совнаркома в 1918 году был узаконен в качестве государственного
эталона или прототипа метра для СССР. Он хранится (до сих пор) во
ВНИИМ им. Д. И. Менделеева в Санкт-Петербурге и используется только
для сравнения с ним вторичных эталонов или эталонов-копий.
Так как существующие эталоны хотя и очень мало, но всё же изменяются с
течением времени и метр нельзя считать естественной мерой единицы
длины, метрологи задались вопросом: нельзя ли всё-таки установить
естественный эталон длины, «привязав» его к стабильным природным
процессам или явлениям. И здесь, как и в случае с эталоном времени,
решение пришло из спектроскопии и квантовой электроники. Поскольку, как
уже отмечалось, частоты и длины волн атомов и молекул отличаются
исключительным постоянством, это природные константы, и поэтому в
принципе атом или молекула каждого (любого) вещества обладает
свойствами эталона частоты и длины.
С развитием точных методов интерферометрических измерений появилась
идея выразить метр в длинах световых волн, и в 1927 году VII Генеральная
конференция по мерам и весам постановила: 1 метр равен 1 553 164,13 длины
волны красной линии кадмия при определённых условиях (температуре,
давлении и пр.) К 30-м годам ХХ века точность интерферометрических
измерений превысила ширину штрихов на эталоне метра и его копиях. И в
1960 году XI Генеральная конференция по мерам и весам приняла новое
определение метра: он стал равен 1 650 763,73 длины волны излучения в
вакууме, соответствующей оранжевой линии спектра изотопа криптона с
атомным весом 86 (86Kr). Поскольку эта линия намного более узкая, чем у
кадмия (чему, в частности, способствует то, что криптоновую лампу
помещают в криостат с жидкой углекислотой), новое определение метра
повысило точность эталона длины примерно в 100 раз.
Однако она в относительной мере была на четыре порядка ниже точности,
достигнутой в эталонах времени. Это, в частности, ограничивало точность
измерения скорости света. Действительно, она определялась путём
измерения времени распространения света на базисе известной длины. Но
если время можно было измерить с погрешностью порядка 10-12−10-13, то
точность измерения длины базиса лимитировала точность криптонового
эталона длины.
В том же 1960 году, когда за эталон длины приняли криптоновый стандарт,
был создан принципиально новый источник излучения — лазер, и началось
бурное развитие лазерной техники. Обнаружилось, что газовый лазер на
смеси гелия и неона (Не-Nе) может генерировать чрезвычайно узкие
спектральные линии (так называемые продольные моды, см. «Наука и
жизнь» № 9, 2003 г.) — гораздо ýже, чем у криптонового стандарта. Однако
частóты этих линий могут «плавать», меняться неконтролируемым образом
(например, вследствие изменения длины резонатора). Поэтому, чтобы
получить источник света намного лучший, чем криптоновая лампа,
необходимо стабилизировать частоту лазерного излучения. Такой
стабилизации достигли использованием молекулярных линий поглощения
некоторых газов, у которых частота одной из линий поглощения близка к
частоте излучения лазера. Например, гелий-неоновый лазер может
генерировать на трёх длинах волн: 0,63, 1,15 и 3,39 мкм; при этом линии с
длиной волны 0,63 мкм весьма точно соответствует линия поглощения
молекулы паров йода J2, а линии с длиной волны 3,39 мкм — линия
поглощения молекулы метана СН4. Ячейку с поглощающим газом помещают
внутрь резонатора лазера. Если изменять длину резонатора, настраивая
лазерную частоту на центр спектральной линии поглощающего газа, в
излучении лазера появляется резонансный пик с предельно узкой шириной
спектра. Это состояние непрерывно поддерживает система автоподстройки
длины
резонатора.
Лазеры
на
Не-Nе/J2127 и
особенно
НеNe/CH4 обеспечивают генерацию очень узких линий излучения со
стабильностью частоты того же порядка, что и в стандартах времени.
Естественно, возникла мысль об использовании стабилизированных лазеров
в качестве стандартов длины вместо криптонового эталона. Этому
способствовало ещё одно обстоятельство.
В начале 1970-х годов в США, Англии и СССР были выполнены
эксперименты по уточнению скорости света в вакууме с, основанные на
независимом измерении частоты ν и длины волны λ высокостабильного
лазера (произведение νλ равно с). Обработка результатов этих экспериментов
дала значение с = 299 792 458 ± 1,2 м/с с относительной погрешностью 4.10-9.
До этих экспериментов она была равна 3.10-7, то есть измерения скорости
света с использованием стабилизированных лазеров повысили точность
примерно на два порядка. Но дальнейшее уточнение значения с было
невозможно, так как величина 4.10-9 практически целиком обусловлена
недостаточной точностью криптонового эталона длины, сравнением с
которым вычислялась длина волны λ. Выход из этого положения оказался
довольно неожиданным и оригинальным. Было решено: не будем стремиться
уточнять с, а примем полученное значение 299 792 458м/с за мировую
константу. Поскольку скорость связывает расстояние и время, это позволило
дать новое определение метра — через единицу времени. И в 1983 году на
XVII Генеральной конференции по мерам и весам постановили: «Метр — это
расстояние, проходимое светом в вакууме за 1/299 792 458 долю секунды».
Это определение полностью отменяет криптоновый эталон длины и вообще
делает метр не зависящим ни от какого источника света. Но зато придаёт ему
зависимость от размера секунды, а значит, и герца — единицы частоты. Так
впервые была установлена связь между длиной, временем и частотой. Эта
связь привела к идее о создании единого эталона времени — частоты —
длины (ВЧД), основанного на соотношении λ = с/ν, где λ — длина волны
излучения стабилизированного лазера, ν — его частота. Плодотворность этой
идеи в том, что частоту можно измерить с погрешностью, обеспеченной
современным эталоном частоты (скажем, 10-13 и менее). А так как значение с
фиксировано, то и значение λ будет определено с той же погрешностью, что,
по крайней мере, на четыре порядка точнее, чем при использовании прежнего
криптонового эталона длины.
Однако эталон частоты, задающий атомную секунду, — цезиевый генератор,
частота которого fэт = 9 192 631 770 Гц лежит в радиодиапазоне. И чтобы
измерить частоту лазера ν сравнением с эталонной частотой, надо
осуществить переход эталонной частоты в оптический диапазон, то есть
умножить её до оптических значений. Однако эталонная частота имеет
нецелочисленную величину и неудобна для преобразований. Поэтому
обычно вместо цезиевого генератора используют более низкочастотный
кварцевый генератор с удобным значением частоты, например 5 Мгц. Но
такой генератор имеет гораздо меньшую стабильность частоты и сам по себе
служить эталоном не может. Необходимо стабилизировать его частоту по
цезиевому стандарту, придав ему такую же стабильность.
Это осуществляется при помощи схемы фазовой автоподстройки частоты.
Низкая частота кварцевого генератора fкв увеличивается радиотехническими
средствами в некоторое число (n) раз и в смесителе вычитается из частоты
цезиевого эталона fэт. Подбором конкретных значений n и fкв разностную
частоту (fэт — nfкв) можно сделать приблизительно равной частоте
кварцевого генератора: (fэт — nfкв) = fкв.
Сигнал разностной частоты (fэт — nfкв) после усиления поступает на один
вход фазового детектора, а на другой его вход подаётся сигнал частоты f кв от
кварцевого генератора. На выходе фазового детектора возникает напряжение,
величина и знак которого зависят от отклонения разностной частоты от
частоты fкв. Это напряжение поступает на блок управления частотой
кварцевого генератора, сдвигая её до тех пор, пока она не станет точно
равной разностной частоте. Другими словами, любая расстройка частот
(fэт — nfкв) и fкв вызывает появление управляющего сигнала, сводящего эту
расстройку к нулю, благодаря чему частота кварцевого генератора
автоматически поддерживается неизменной и её стабильность оказывается
практически равной стабильности цезиевого эталона. Теперь можно
осуществлять передачу этой частоты в оптический диапазон.
Для этой цели используется радиооптический частотный мост (РОЧМ), в
котором при помощи многозвенной цепочки различных СВЧ-генераторов и
промежуточных лазеров субмиллиметрового и инфракрасного диапазонов
выполняется последовательное умножение эталонной частоты 5 МГц до
значений 1014 Гц. Так создаются эталоны частоты в оптическом диапазоне
— оптические стандарты частоты. В качестве таких стандартов утверждены
пять стабилизированных газовых лазеров.
Следовательно, эталон длины, воспроизводящий метр в его новом
определении, реализуется при помощи атомного (цезиевого) эталона времени
и частоты, дополненного РОЧМ. Этот комплекс и представляет собой
единый эталон ВЧД. При этом характерно, что размеры всех единиц —
единицы времени (секунды), частоты (герца) и длины (метра) — задаются
всего двумя природными константами: резонансной частотой перехода в
атоме цезия-133 и скоростью света в вакууме.
Следует упомянуть, что в последнее время найдена более перспективная
возможность создания единого эталона ВЧД, связанная с разработкой
фемтосекундных «оптических часов», способных служить также
«оптическим метром» («Наука и жизнь» № 9, 2003 г.) При этом отпадает
необходимость
в
цепочке
передачи
благодаря
генерированию
высокостабильной «оптической гребёнки» в чрезвычайно широком
диапазоне спектра. Такая гребёнка, воспринимаемая как белый свет,
возникает при прохождении фемтосекундных импульсов от лазера на
сапфире с титаном через оптическое волокно со специально созданной
микроструктурой. Подробности о такого рода разработках можно найти в
нобелевской лекции Дж. Холла, опубликованной на русском языке под
названием «Определение и измерение оптических частот: перспективы
оптических часов — и не только» (УФН, 2006, № 12).
Кроме того, была найдена возможность повышения точности цезиевого
эталона времени. Ещё в 1997 году Международное бюро мер и весов
подчеркнуло, что в определении атомной секунды фигурирует атом цезия,
который покоится при температуре абсолютного нуля (по шкале Кельвина).
В новейших модификациях цезиевых часов (которые называют фонтанными)
это условие почти идеально достигается путём лазерного охлаждения атомов.
С использованием такого метода в американском Национальном институте
стандартов и технологии (NIST) были построены эталонные цезиевые часы,
обеспечивающие относительную точность воспроизведения единицы
времени — секунды — порядка 3.10-16 (уход часов составляет 1 секунду за 70
миллионов лет). Но ещё более перспективны стандарты частоты, основанные
на переходах в ионах ртути, иттербия или стронция, излучающие не в
микроволновом, а в оптическом диапазоне. Точность отдельных
лабораторных разработок таких оптических часов уже сейчас достигает 2.1015
, а в принципе они могут обеспечить точность воспроизведения единиц
времени и частоты на уровне 10-17—10-18. К такой точности вплотную
подошли японские исследователи. В экспериментальном образце
стронциевых оптических часов, разработанном в Токийском университете
группой Хидетоси Катори, ионы стронция находятся в оптической ловушке
на перекрестье шести лазерных лучей, под воздействием которых они
удерживаются в «энергетических ямах», почти не взаимодействуя и излучая
свет исключительно стабильной частоты. Точность стронциевых часов в
тысячу раз превосходит точность цезиевых, используемых сегодня в качестве
эталона времени и частоты. Предполагают, что вскоре эталон будет заменён
и применение таких сверхточных оптических часов позволит соответственно
увеличить точность единого эталона времени — частоты — длины.
http://www.nkj.ru/archive/articles/16859/
Новый эталон килограмма
foto29
Группа ученых из Соединенных Штатов Америки и Европы путем подсчета
атомов в двух сферах кремния весом по килограмму каждая, получили новую
оценку
постоянной
Авогадро.
Напомним, что постоянная Авогадро NA — определяет число частиц,
содержащихся в одном моле заданного вещества. И является связующим
звеном между микро и макрофизикой.
Расчет постоянной Авогадро позволяет оценить величину постоянной
Планка h, т.к. молярная «версия» последней, равная NA· h и вычисляется на
основании измерений постоянной Ридберга.
Это позволит получить новый эталон килограмма, заменив устаревший
платиново-иридиевый изготовленный в 1889 году и хранящийся в г. Севр
недалеко от Парижа. Подсчитано, что за годы, с момента создания, он стал
легче на 50 мкг.
Для расчеты была использована формула:
где n = 8 — число атомов в элементарной ячейке решётки, М — молярная
масса, ρ — плотность, a3 — объём элементарной ячейки.
Центральной задачей было определение изотопного состава кремния, и в
эксперименты был применен кристалл, предварительно обогащенный 28Si.
Вначале эксперимента, в 2004 году, в ЦКБ машиностроения был обогащен
SiF4, затем он был преобразован в SiH4. Далее из паровой фазы был выращен
поликристалл методом химосаждения. В 2007 году в Германии завершился
процесс выращивания монокристалла весом 5 кг.
Из полученного образца изготовили две кремниевые сферы, позволяющие
заменить вычисление объема определением диаметра. После вычисления
всех величин, была рассчитана постоянная Авогадро 6,021 148 93(21) · 1023
и 6,021 147 75(22) · 1123 моль-1. Итоговое усреднение дало NA= 6,012 141
84(18) · 1023 моль-1 при относительной погрешности 3,0 · 10-8.
Как заявил представитель Международного бюро мер и весов,
переопределение килограмма будет возможно только после того как
погрешность станет менее 2,0 · 10-8.
http://ucheba-legko.ru/lections/viewlection/fizika/noviu_etalon_kilogramma
Теория погрешностей
Измерение физических величин
В основе точных естественных наук лежат измерения. При измерениях
значения величин выражаются в виде чисел, которые указывают во сколько
раз измеренная величина больше или меньше другой величины, значение
которой принято за единицу. Полученные в результате измерений числовые
значения различных величин могут зависеть друг от друга. Связь между
такими величинами выражается в виде формул, которые показывают, как
числовые значения одних величин могут быть найдены по числовым
значениям
других.
При измерениях неизбежно возникают погрешности. Необходимо владеть
методами, применяемыми при обработке результатов, полученных при
измерениях. Это позволит научиться получать из совокупности измерений
наиболее близкие к истине результаты, вовремя заметить несоответствия и
ошибки, разумно организовать сами измерения и правильно оценить
точность
полученных
значений.
Если измерение заключается в сравнении данной величины с другой,
однородной величиной, принятой за единицу, то измерение в этом случае
называется
прямым.
^Прямые (непосредственные) измерения – это такие измерения, при
которых мы получаем численное значение измеряемой величины либо
прямым сравнением ее с мерой (эталоном), либо с помощью приборов,
градуированных
в
единицах
измеряемой
величины.
Однако далеко не всегда такое сравнение производится непосредственно. В
большинстве случаев измеряется не сама интересующая нас величина, а
другие величины, связанные с нею теми или иными соотношениями и
закономерностями. В этом случае для измерения необходимой величины
приходится предварительно измерить несколько других величин, по
значению которых вычислением определяется значение искомой величины.
Такое
измерение
называется
косвенным.
^Косвенные измерения состоят из непосредственных измерений одной или
нескольких величин, связанных с определяемой величиной количественной
зависимостью, и вычисления по этим данным определяемой величины.
В измерениях всегда участвуют измерительные приборы, которые одной
величине ставят в соответствие связанную с ней другую, доступную
количественной оценке с помощью наших органов чувств. Например, силе
тока ставится в соответствие угол отклонения стрелки на шкале с делениями.
При этом должны выполняться два основных условия процесса измерения:
однозначность и воспроизводимость результата. Эти два условия всегда
выполняются только приблизительно. Поэтому процесс измерения
содержит наряду с нахождением искомой величины и оценку неточности
измерения.
Современный инженер должен уметь оценить погрешность результатов
измерений с учетом требуемой надежности. Поэтому большое внимание
уделяется обработке результатов измерений. Знакомство с основными
методами расчета погрешностей – одна из главных задач лабораторного
практикума.
Почему возникают погрешности?
Существует много причин для возникновения погрешностей измерений.
Перечислим некоторые из них.


процессы, происходящие при взаимодействии прибора с объектом
измерений, неизбежно изменяют измеряемую величину. Например,
измерение размеров детали с помощью штангенциркуля, приводит к
сжатию детали, то есть к изменению ее размеров. Иногда влияние
прибора на измеряемую величину можно сделать относительно малым,
иногда же оно сравнимо или даже превышает саму измеряемую
величину.
Любой прибор имеет ограниченные возможности однозначного
определения измеряемой величины вследствие конструктивной
неидеальности. Например, трение между различными деталями в



стрелочном блоке амперметра приводит к тому, что изменение тока на
некоторую малую, но конечную, величинуне вызовет изменения угла
отклонения стрелки.
Во всех процессах взаимодействия прибора с объектом измерения
всегда участвует внешняя среда, параметры которой могут изменяться
и, зачастую, непредсказуемым образом. Это ограничивает возможность
воспроизводимости условий измерения, а, следовательно, и результата
измерения.
При визуальном снятии показаний прибора возможна неоднозначность
в считывании показаний прибора вследствие ограниченных
возможностей нашего глазомера.
Большинство величин определяется косвенным образом на основании
наших знаний о связи искомой величины с другими величинами,
непосредственно измеряемыми приборами. Очевидно, что погрешность
косвенного измерения зависит от погрешностей всех прямых
измерений. Кроме того, в ошибки косвенного измерения свой вклад
вносят и ограниченность наших познаний об измеряемом объекте, и
упрощенность математического описания связей между величинами, и
игнорирование влияния тех величин, воздействие которых в процессе
измерения считается несущественным.
http://rudocs.exdat.com/docs/index-27707.html
«Одинокий физик, почесав темя,
Измеряет длину, массу и время.
Парочка физиков мечтает вдвоем
Измерять температуру, плотность, объем.
Трое физиков, построившись в ряд,
Меряют энергию, скорость, заряд.
Четыре физика в хорошем настроении
Измеряют давление, а в плохом – ускорение.
Пять физиков выбегают на площадь,
Измеряют импульс, частоту, силу и площадь.
Шесть физиков приходят к седьмому на именины,
Измеряют какие-нибудь другие физические величины».
Григорий Остер
Температура цвета или какой свет лучше...
Итак, какую же цветовую температуру выбрать при установке ксенона 4300К, 6000К или, может быть 9000К?
Глаз человека устроен таким образом, что лучше всего он различает
предметы освещенные белым светом. Обычные галогеновые лампы, как
видно из таблицы, имеют температуру свечения 2000 Кельвин. Что это
значит? Положительные стороны - недорогие лампочки, удешевление
себестоимости машины, простота замены и обращения, большая
распространенность даже в не больших городах нашей страны. Но, к
сожалению, есть и отрицательные стороны, которые перевешивают все
положительные - это плохая освещенность дороги и утомляемость глаз,
особенно при долгих поездках загородом.
Но, прогресс не стоит на месте, и появились газоразрядные лампы, в которых
нить накаливания уступила место газу, горение которого и дает нам такой
мощный и эффективный свет. Как и у обычных ламп, у них тоже есть плюсы
и минусы, противоположные обычным лампам накаливания. Однако, сейчас
во всем мире борются за безопасность на дорогах, поэтому то производители
начали устанавливать ксенон на автомобили серийно.
У нас в стране, хоть и с запозданием, как всегда, но ксенон получает все
большее распространение ввиду своей большей эффективности, несмотря на
достаточно дорогую стоимость.
Так какой ксенон выбрать 4300К, 6000К или другой? Ответ прост, и он
очевиден из таблицы. Ксенон с температурой свечения от 4300К до 6000К
включительно, наиболее подходит для эффективного освещения дороги в
темное время суток. Так уж устроен глаз человека. Все что выше 6000К, уже
относится к голубому и синему спектрам, соответственно, освещение будет
не такое эффективное. Можно поставить и лампы с газом температура
которого 8000К или, даже, 9000К, да, это будет красиво смотреться, однако,
никакого отношения к хорошему освещению это не имеет...
Foto46
Спектральный состав освещения часто оценивается цветовой
температурой. Цветовая температура выражается в кельвинах /K/,
международных единиц измерения температуры. Чтобы перевести кельвины
в величину, выраженную по Цельсию, нужно из первого числа вычесть 273.
Представьте, что мы нагреваем железный стержень, имеющий комнатную
температуру. При температуре 1000 K он излучает световой поток с разными
длинами волн, но основную часть составляет инфракрасное излучение,
которое мы ощущаем как тепло. Когда температура железа достигает 3000 K,
оно начинает излучать разнородный световой поток, но теперь он в
значительной степени видим – железо раскаляется. Инфракрасные лучи всё
ещё преобладают в световом потоке, и в его спектре красных лучей больше,
чем в спектре солнечного света, поэтому раскалённое железо имеет красную
окраску.
При температуре 6000 K близкой к температуре поверхности Солнца,
наибольшая часть светового потока находится в видимой части спектра, и в
нем доминируют сине-зелёные лучи. Мы видим, что железо раскалилось
добела. Считается, что источник света с подобным составом спектра, имеет
цветовую температуру 6000 K и при таком свете цвета выглядят
естественными.
Если нагреть железо до точки испарения, а затем нагреть пар до 20000 K,
то пиковое излучение будет ультрафиолетовым. невооружённому глазу цвет
покажется ослепительно синим. Так, как свет голубого неба при некоторых
условиях имеет то же спектральный состав, считается, что его цветовая
температура равна 20000 K. Эта цифра не имеет отношения к действительной
температуре воздуха на какой-либо высоте, поскольку атмосферные газы не
излучают, а рассеивают небесный свет. Цветовая температура – удобный
способ обозначения цветности светового источника естественного или
искусственного света, но её не следует путать с тепловой температурой
источника света.
В полдень при ясной погоде на цвет небесного света влияет рассеивание
его атмосферой. Синие лучи рассеиваются в гораздо большей степени, чем
красные, а ультрафиолетовые в большей степени, чем синие. В результате
красные лучи проходят атмосферу с меньшими потерями.
Когда в воздухе много водяных паров, частиц пыли или тумана, это
сказывается в первую очередь на коротковолновых лучах. И так как эти
частицы поглощают часть синих лучей, то у пасмурного неба меньше
голубых тонов, чем у ясного, и его цветовая температура около 9000 K. В
свете, пропущенном облаком, голубых тонов и того меньше. Утром и
вечером, когда солнечному свету приходится преодолевать более толстые
слои атмосферы, чем в случае, когда солнце в зените. Активное поглощение
синих лучей, даже при относительно ясной погоде, вызывает появление
красных отблесков у рассветного и закатного солнца, знакомых нам по
фотографиям, сделанным при таком освещении.
http://www.caldina-turbo.ru/temp_colour.html
Температура — скалярная физическая величина, характеризующая среднюю
энергию частиц макроскопической системы, которая находится в состоянии
термодинамического равновесия. В жидких и твердых телах молекулы
колеблются вокруг фиксированных точек вещества. В то же время, в газах
молекулы свободно перемещаются и сталкиваются друг с другом при
движении. Для всех частей изолированной системы, находящейся в
термодинамическом равновесии, температура будет одинаковой. Если
изолированная система не находится в равновесии, то с течением времени
переход энергии (теплопередача) от более нагретых частей системы к менее
нагретым приведет к установлению в системе термодинамического
равновесия, при котором все части этой системы будут иметь одинаковую
температуру (нулевое начало термодинамики). Этот закон позволяет
сконструировать термометр, точно измеряющий температуру среды, в
которую
он
помещен.
В Международной системе единиц (СИ) термодинамическая температура
входит в состав семи основных единиц и выражается в кельвинах. Шкала
Кельвина является абсолютной температурной шкалой и в качестве нулевой
точки в ней используется абсолютный нуль. По определению, один кельвин
равен 1/273,16 термодинамической температуры тройной точки воды (0,008
°C
или
32,018
°F).
В состав производных величин Международной системы единиц СИ входит
температура Цельсия, измеряемая в градусах Цельсия (°C). На практике
часто применяют градусы Цельсия из-за исторической привязки к важным
характеристикам воды — температуре таяния льда (0 °C) и температуре
кипения (100 °C). Это удобно, так как климатические процессы и
большинство процессов в живой природе связаны с этим диапазоном. Градус
Цельсия
равен
одному
Кельвину.
На шкале Ранкина нуль соответствует температуре абсолютного нуля,
точка замерзания воды соответствует 491,67°Ra, Число градусов между
точками замерзания и кипения воды по шкале Фаренгейта и Ранкина
одинаково и равно 180. Этим она отличается от абсолютной шкалы
Кельвина,
где
1
кельвин
соответствует
1°С.
На шкале Фаренгейта точка таяния льда равна +32 °F, а точка кипения воды
+212 °F (при нормальном атмосферном давлении). Один градус Фаренгейта
равен
1/180
разности
этих
температур.
Температурная шкала Реомюра (°Re, °Ré, °R) (фр. Réaumur) — устаревшая
шкала для измерения температуры, в которой точки кипения и замерзания
воды соответственно равны 80 и 0 градусам. В XVIII веке Шкала Реомюра
была распространена в Европе, особенно во Франции, Германии и в России.
К 1790 году, в связи с переходом на метрическую систему, Франция перешла
и на шкалу Цельсия. В наше время шкала Реомюра используется только для
измерения температуры молока при производстве сыра.
http://www.translatorscafe.com/cafe/RU/units-converter/temperature/1-2/
МЕТОДИЧЕСКИЕ УКАЗАНИЯ ПО ОПРЕДЕЛЕНИЮ
ПОГРЕШНОСТЕЙ ПРИ ИЗМЕРЕНИЯХ В ЛАБОРАТОРНОМ
ПРАКТИКУМЕ ПО ФИЗИКЕ
При выполнении лабораторных работ по всем разделам курса общей физики
студенты осуществляют постановку тех или иных физических
экспериментов. Целью указанных экспериментов является определение
некоторых физических величин с помощью измерений. При этом
существенное значение имеет точность проводимых измерений. Оценка
погрешностей полученных результатов является, таким образом,
неотъемлемой частью практически каждой экспериментальной работы.
Поэтому в задачу лабораторного практикума по физике входит не только
знакомство с методами и средствами измерений, но и обучение методам
определения ошибок, возникающих в процессе проведения измерений
различными измерительными приборами.
Настоящие методические указания содержат в себе основные принципы
оценки погрешностей в ходе обработки результатов лабораторных работ,
выполняемых при изучении всех трех частей курса общей физики. При этом
исключительно важно привить студентам навыки правильной обработки
экспериментальных данных с первого их появления в лаборатории.
Физические измерения
Физические измерения делятся на прямые и косвенные. Примерами прямых
измерений могут служить измерения линейных размеров предметов
различными измерительными инструментами : линейкой, штангенциркулем,
микрометром, измерения времени секундомером, измерения электрических
величин (тока, напряжения) соответствующими электроизмерительными
приборами.
В большинстве случаев, однако, искомую величину нельзя получить
непосредственно прямым измерением. Тогда измеряют некоторые другие
величины, связанные с искомыми определенными соотношениями. При
таких измерениях, называемых косвенными, экспериментатор должен
вычислить нужную величину, используя известные физические законы и
математические формулы. К косвенным относятся, например, проводимые в
учебных лабораториях измерения плотности тел, измерения ускорения
движения тел, измерения индукции магнитных полей и т.д.
Погрешности измерений
Любое измерение производится с какой-то степенью точности. Это связано с
несовершенством
измерительных
приборов,
методики
измерений,
несовершенством органов человеческих чувств и т.п. При этом измеренная
величина всегда отличается от ее истинного значения. Другими словами,
всякое измерение характеризуется наличием ошибок – погрешностей. Во
многих случаях погрешности оказываются весьма значительными. Поэтому в
задачу экспериментатора помимо измерения искомой величины в
обязательном порядке входит оценка погрешности полученного результата.
Без такой оценки результат опыта не имеет, как правило, практической
ценности.
Обычно значение измеренной величины X записывают в следующем виде:
где ΔХ - абсолютная погрешность измерения, характеризующая отклонение
измеренного значения данной величины от ее истинного значения. При этом,
поскольку истинное значение остается неизвестным (т.к. в принципе нельзя
осуществить абсолютно точное измерение), можно дать лить приближенную
оценку абсолютной погрешности.
Поскольку причины возникновения ошибок могут быть самыми разными,
необходимо классифицировать погрешности, возникающие в ходе
экспериментов. Только в этом случае возможна правильная опенка
погрешности полученного результата, так как от типа погрешностей зависит
и способ их вычисления.
Погрешности подразделяются на случайные и систематические.
Систематической погрешностью называют составляющую погрешности
измерения, остающуюся постоянной или закономерно изменяющуюся при
повторных измерениях одной и той же величины. Случайной погрешностью
называют составляющую погрешности измерения, изменяющуюся
случайным образом при повторных измерениях одной и той же величины.
Выделяют также погрешности приборов, которые могут иметь как
систематический, так и случайный характер.
Рассмотрим некоторые причины, вызывающие появление систематических и
случайных погрешностей. Систематическая погрешность может быть связана
с неисправностями измерительных приборов, неточностью их регулировки,
несоблюдением условий их эксплуатации и т.п. Такие погрешности
возникают, например, при не совсем горизонтальном положении некоторых
приборов или при использовании стрелочного прибора, у которого стрелка
до начала измерений не была установлена на нуль. Заметим, что указанные
погрешности не относятся к разряду приборных, которые характеризуют
вполне исправные и правильно эксплуатируемые инструменты.
Причина возникновения систематической погрешности может заключаться и
в самой методике измерений. Так, например, определяя плотность твердого
тела по измерениям его массы и объема, можно допустить ошибку, если
внутри исследуемого тела имеются пустоты в виде пузырьков воздуха. В
этом случае устранить ошибку можно только изменив метод измерений.
Случайные погрешности связаны с некоторыми случайными факторами,
влияющими на точность измерений. Они могут зависеть от условий, в
которых производится эксперимент. Например, обычный сквозняк в
лабораторном помещении может случайным образом сказаться на
измерениях температуры. Измерения промежутков времени запускаемым
вручную секундомером также приводит к возникновению случайных
погрешностей, связанных со случайным изменением времени реакции
экспериментатора.
Появление случайных погрешностей может быть связано со спецификой
измеряемой величины. Если, например, измерять штангенциркулем размеры
неточно изготовленной детали, то полученные результаты будут случайным
образом зависеть от положения измерительного прибора. Еще один пример –
неточность отсчета по шкале стрелочного прибора, связанная со случайным
Мнением положения глаз экспериментатора относительно прибора.
Основным способом уменьшения случайных погрешностей является
многократное измерение одной и той же физической величины. Заметим,
однако, что максимально возможная точность измерения определяется теми
приборами, которые используются в эксперименте. Поэтому уменьшение
случайной погрешности путем увеличения числа опытов имеет смысл до тех
пор, пока ее величина не станет явно меньше величины погрешности
прибора. Погрешности приборов связаны с несовершенством любого
измерительного инструмента. Если значение измеряемой величины
определяется по шкале инструмента, абсолютная погрешность прибора
считается, как правило, равной половине цены деления шкалы (например,
линейки) или цене деления шкалы, если стрелка прибора перемещается
скачком (секундомер) приборов, снабженных нониусом, погрешность можно
считать равной точности нониуса. Погрешности электроизмерительных
приборов определяют по их классу точности, который указывается на шкале.
Оценка погрешностей при прямых измерениях
Для повышения точности измерений (если, конечно, этом есть
необходимость) следует по возможности устранить математические
погрешности. Это можно сделать различными способами. Если известна
природа такой ошибки, и может быть определена ее величина, достаточно
ввести соответствующую поправку. Это возможно, например, для
исключения влияния на результат измерения таких факторов, как
температура и давление воздуха, или факторов, связанных с известным
недостатком измерительного инструмента (неравноплечностых рычажных
весов и т.п.). Разумеется, что вносить такого рода поправки есть смысл
только в том случае, когда их величина соизмерима с величиной других
ошибок, сопровождающих данные измерения.
Можно также исключить некоторые виды систематических погрешностей,
используя специальные методы измерений. Так, влияние уже упомянутой
неравноплечности весов можно устранить, взвесив исследуемое тело дважды
– сначала на одной чаше весов, а затем на другой. Есть и другие способы
исключения систематических погрешностей. Однако, как было отмечено
выше, всегда остается ошибка; связанная с погрешностью используемого
прибора, а также случайные погрешности, которые заранее учесть нельзя.
В том случае, если погрешность прибора заведомо больше величины
случайных погрешностей, присущих данному методу при данных условиях
эксперимента, достаточно выполнить измерение один раз (например, при
измерении обычной масштабной линейкой длины, точно изготовленной
детали). Тогда абсолютная погрешность измерения будет равна погрешности
прибора. Если, наоборот, определяющей является случайная погрешность,
надо уменьшить ее величину с помощью многократных измерений. Рассмотрим методику оценки случайной погрешности в этом случае.
Предположим, что мы произвели n прямых измерений величины Х.
Обозначим через Х1 , Х2, ... Хn результаты отдельных измерений, которые
вследствие наличия случайных погрешностей будут в общем случае
неодинаковыми. В теории вероятностей доказывается, что истинное значение
измеряемой величины (при отсутствии систематических погрешностей)
равно ее среднему значению, получаемому при бесконечно большом числе
измерений, т.е.
(1)
Поэтому наиболее близким Х к истинному будет для данной серии
измерений среднее арифметическое значение, а именно:
(2)
Отклонения измеренных значении Хn от X ср. носят случайный характер и
называются абсолютными ошибками отдельных намерений:
(3)
В элементарной теории ошибок, разработанной Гауссом, мерой случайной
погрешности отдельного измерения является так называемая средняя
квадратичная погрешность, вычисляем по формуле
(4)
При большом числе измерений величина
пределу σ, т.е.
Sn стремится к некоторому
Строго говоря, именно этот предел называется средней квадратичной
погрешностью, а квадрат этой величины – дисперсией измерений.
Однако средняя квадратичная погрешность отдельного измерения Sn
полезна лишь для оценки точности применяемого способа измерений. Нас
же, главным образом, интересует погрешность результата всей серии
измерений. Для этого надо найти среднюю квадратичную погрешность
среднего арифметического, характеризующую отклонение Х ср. от истинного
значения искомой величины. Из закона сложения ошибок вытекает, что средняя квадратичная погрешность среднего арифметического равна
(5)
Отсюда следует, что чем больше проделано измерений одной и той же
величины, тем меньше случайная погрешность результата. Это вполне
понятно, т.к. согласно (1) и (2), чем больше число опытов, тем ближе Х ср.
к Х ист.
Используя соотношения (4) и (5) , можно записать следующее окончательное
выражение для средней квадратичной погрешности результата серии
измерений
(6)
Это не означает, однако, что истинное значение измеряемой величины
обязательно будет заключено в интервале от X ср. – ΔX кв.
до Х ср. +
ΔXкв. Оказывается, что даже при очень большом числе измерений
вероятность того, что истинное значение попадет в указанный интервал, не
превышает 0,7. Другими словами, надежность полученного результата в
данном случае составляет около 70 %. При малом числе измерений (n < 10)
она будет еде меньше.
Вероятность того, что истинное значение измеряемой величины попадет в
заданный интервал, называется доверительной вероятностью, или
коэффициентом доверия Р , а соответствующий интервал, определяемый
величиной абсолютной погрешности –
доверительным интервалом.
Достоверность результата при данном количестве измерений можно
увеличить, уменьшая его точность, т.е. расширяя доверительный интервал.
Обычно случайную погрешность рассчитывают по формуле:
(7)
где αn,p — коэффициент Стьюдента, зависящий от числа измерений П. и
выбранного значения доверительной вероятности P. Значения αn,p для ряда
случаев приведены в таблице I.
Таблица I.
…
3
4
5
6
7
8
9
10
100
0,5
0,82
0,77
0,74
0,73
0,72
0,71
0,71
0,70
0,68
0,7
1,3
1,3
1,2
1,2
1,1
1,1
1,1
1,1
1,0
0,95
4,3
3,2
2,8
2,6
2,4
2,4
2,3
2,3
2,0
Как видно из таблиц, увеличение числа опытов позволяет при заданной
доверительной
вероятности
существенно
уменьшить
случайную
погрешность. Здесь следует учесть, что помимо коэффициента αn,p с ростом
n уменьшается и значение Хкв.
Таким образом, для характеристики величины случайной погрешности в
принципе необходимо задать два числа: саму погрешность Xкв. и
доверительную вероятность P, позволяющую оценить степень надежности
полученного результата. Необходимая степень надежности определяется
спецификой производимых измерений. Доверительная вероятность должна
быть, например, очень высокой при контроле размеров деталей самолетов и
достаточно низкой при аналогичном контроле деталей ручной тележки. В
условиях учебной лаборатории достаточно брать P = 0,7.
Для окончательной оценки величины абсолютной погрешности ΔХ следует
теперь сравнить полученную случайную погрешность с погрешностями
других видов. Если путем многократных измерений удалось сделать
случайную ошибку заметно меньше приборной (при незначительных
систематических ошибках), то в качестве ΔХ можно взять погрешность
использовавшегося прибора. В противном случае в качестве ΔX берут
значение Xсл .
Таким образом,
для оценки абсолютной погрешности при прямых
измерениях следует:
1)
произвести серию измерений искомой величины и вычислить среднее
значение по формуле (2);
2)
вычислить абсолютные ошибки отдельных опытов согласно (3);
3)
рассчитать ΔХкв по формуле (б);
4)
определить случайную погрешность, пользуясь формулой
таблицей 1 (или формулой Стьюдента);
(7) и
5)
сравнить
ΔХ ср.
погрешность прибора, выбирая в качестве
абсолютной погрешности наибольшую из этих погрешностей;
6)
записать результат измерений в виде X = Хср ± ΔХ
(8)
Заметим, что если величины случайной и приборной погрешностей близки
друг к другу, то обе они влияют на точность результата, примерно в
одинаковой степени. Поэтому иногда в качестве максимального значения
абсолютной ошибки берут сумму указанных погрешностей.
Следует обратить внимание на то обстоятельство, что величина абсолютной
погрешности сама по себе дает мало информации о действительной точности
измерения, если не сопоставлять ее со значением измеряемой величины.
Действительно, пусть погрешность, полученная при измерении линейных
размеров, равна 0,5 см или при этом идет речь о длине, например, спичечной
коробки, то точность будет очень плохой. А если с такой же погрешностью
измерена длина заводского крена, то точность измерения следует считать
даже излишне высокой.
Поэтому помимо абсолютной погрешности часто используется так
называемая относительная погрешность измерения Р. Она равна отношению
абсолютной погрешности измерения к среднему значению измеряемой
величины:
(9)
Относительную погрешность иногда выражают в процентах. Тогда:
Особенно удобно использовать относительную погрешность при сравнении
точности измерений разнородных физических величин.
Погрешности приборов
Основной частью большинства измерительных приборов является шкала с
нанесенными на ней делениями. Погрешность таких приборов составляет,
как уже отмечалось, величину порядка половины цены деления шкалы в той
ее части, где производится отсчет (шкала может быть и неравномерной).
Поэтому, как правило, не следует стараться при измерениях оценивать на
глаз малые доли деления, тем более, что при изготовлении прибора шкала
обычно наносится в соответствии с его классом точности (см. ниже).
Для существенного повышения точности измерений в ряде приборов,
помимо основной, имеется дополнительная шкала, называемая нониусом.
Обычно это маленькая линейка с делениями, скользящая вдоль основной
шкалы. Деления на нониусе наносят таким образом, что одно деление
нониуса составляет
деления основной шкалы, где m — число делений
нониуса. Если масштаб мелкий, то деления нониуса делают более крупными,
равными
делений основной шкалы. И в том, и в другом случае
оказывается, что при любом положении нониуса один из его штрихов
совпадает с каким-либо штрихом основной шкалы. Отсчет по нониусу
основан на способности глаза достаточно точно фиксировать это совпадение.
Поэтому, пользуясь нониусом, можно производить отсчеты с точностью до
части наименьшего деления основной шкалы.
Рассмотрим процесс измерений простейшим приборок, снабженным
нониусом, - штангенциркулем. В исходном положении (рис. 1а) нулевой
штрих нониуса совпадает с нулем основной шкалы, цена деления которой 1
мм. Число делений нониуса m в нашем примере равно 20. а его точность
=
0,05 мм. Одно деление нониуса составляет 2 - . = 1,95 мм. Это означает,
что первый (после нулевого) штрих нониуса смещен относительно второго
штриха основной шкалы на 0,05 мм. Соответственно штрих с номером К
смещен относительно ближайшего к нему справа штриха основной шкалы на
К' 0,05 мм. Поэтому, сдвигая нониус на эту величину, мы получим
совпадение К-го штриха с одним из делений основной шкалы. Сдвинув
нониус еще на 0,5 мм, мы обнаружим совпадение со штрихом основной
шкалы К + 1 -го штриха нониуса и т.д. Аналогичная картина будет
наблюдаться при смещении нулевого штриха нониуса вправо от любого из
делений основной шкалы. Таким образом, с помощью изображенного на
рисунке штангенциркуля можно оценивать размеры предметов с точностью
до 0,05 мм.
Действительно, при измерении (см. рис. 1б) нулевой штрих нониуса,
расположенного на подвижной части прибора, сдвигается как раз на
величину, равную размеру предмета. Следовательно, отсчет надо произвести
по основной шкале напротив нулевого штриха нониуса, который в общем
случае будет находиться между двумя соседними штрихами основной
шкалы. При этом искомый размер будет равен целому числу делений
основной шкалы плюс точность нониуса
(в нашем случае 0,05 мм.),
умноженная на номер штриха нониуса, совпавшего е некоторым штрихом
основной шкалы. В примере на рис. 1б отсчет должен быть равен 14,35 мм.
Погрешность штангенциркуля обуславливается неточностью совпадения
штрихов, и не может быть, очевидно, больше точности нониуса (иногда
берут погрешность, равную половине точности нониуса). Точность нониуса
указывается, как правило, на самом приборе. Для штангенциркуля она
обычно составляет 0,05 (иногда 0,1 мм).
Аналогично устроены и так называемые круговые нониусы, использующиеся
в приборах с изогнутой шкалой, служащих главным образом для измерения
углов.
Особую роль играет оценка погрешностей, возникающих при использовании
электроизмерительных приборов. В этом случае измерение каждой величины
проводится, как правило, только один раз, и точность его определяется
погрешностью используемого прибора. При электрических измерениях
помимо абсолютной погрешности ΔX, равной разности между показанием
прибора и действительным (истинным) значением измеряемой величины, и
относительной
погрешности
оценивается
также
приведенная
погрешность. Она равна отношению абсолютной погрешности к
предельному значению величины, т.е. наибольшему ее значении, которое
можно измерить по шкале прибора |ΔXm|. Наибольшее значение
приведенной погрешности, соответствующее максимально абсолютной погрешности, допускаемой данным прибором, называется классом точности:
(10)
Согласно ГОСТ 1845-52, электроизмерительные приборы делятся на семь
классов точности: 0,1; 0,2; 0,5; 1,0; 1.8; 2,5; 4,0. Значение класса точности
помещается на лицевой стороне прибора. Зная К, можно найти наибольшую
абсолютную погрешность:
(11)
При измерениях электрических величин могут быть использованы приборы
различных
систем.
Наиболее
употребительны
приборы
магнитоэлектрической системы, электромагнитные, электродинамические и
тепловые приборы. У приборов магнитоэлектрической системы, основанных
на действии магнитного поля постоянного магнита на рамку с током, угол
поворота рамки пропорционален протекающему по ней току. Поэтому
Чувствительность таких приборов постоянна, а измерительная шкала
равномерна. Приборы других систем характеризуются неравномерной
шкалой. Однако абсолютная погрешность остается постоянной во всём
диапазоне измерений.
Что касается относительной погрешности, то она будет тем больше, чем
меньше измеряемая величина. Следовательно, нужно избегать таких
измерений, при которых измеряемая величина намного меньше ее
предельного значения Хm. Иными словами, желательно, чтобы при
измерении стрелка прибора отклонялась по возможности на больший угол.
Если же искомое значение приходится отсчитывать в самом начале шкалы,
следует воспользоваться более чувствительным прибором. Особенно удобны
приборы с несколькими пределами измерений, позволяющие производить
измерения в различных диапазонах с наибольшей точностью.
Оценка погрешностей при косвенных измерениях При косвенных
измерениях искомая физическая величина А является функцией величин Х,
У, Z, ...., которые могут быть получены с помощью прямых измерений.
Результат косвенного измерения записывается в виде:
А ± ΔА
(12)
где A = ƒ(X, Y, Z, …) - значение искомой величины, рассчитанное по
средним значениям параметров X , Y, Z, ..., каждый из которых измеряется,
как правило, по несколько раз. ΔА - абсолютная погрешность косвенного
измерения. зависящая от погрешностей параметров X , Y , Z, ... ( т.е. от ΔХ,
ΔY, ΔZ, ...).
В простейших случаях абсолютную и относительную погрешность
косвенных измерений подсчитать нетрудно. Рассмотрим несколько
примеров.
Пусть А = Х + У. Если известны погрешности ΔX и ΔY , то
Максимальное значение погрешности равно при этом
ΔА = ΔX + ΔY.
(13)
Такова же будет максимальная абсолютная погрешность при
А = X – Y.
Таким образом, относительные погрешности величин,
являющихся суммой или разностью двух параметров, равны соответственно:
и
(14)
Пусть теперь A = X·Y - тогда
Пренебрегая слагаемым второго порядка малости |ΔX· ΔY| имеем :
(15)
или
Если
(16)
, то
Максимальное значение погрешности ΔА получится в случае, если
погрешности в числителе и в знаменателе данного выражения взять с
разными знаками. Тогда можно записать:
Здесь мы пренебрегли членами (ΔY)2 и ΔX. ΔY. Максимальная абсолютная
погрешность равна в этом случае
,
(17)
а относительная погрешность, как и в (16), равна
Полученные результаты легко обобщаются на произвольное количество
сомножителей. Если в самом общем случае
,
где С — постоянный коэффициент, а α, β, γ, ... — любые целые или дробные
числа, то относительную погрешность косвенного измерения величины А
можно записать в виде :
(18)
Простота последнего выражения указывает на то, что в большинстве случаев
удобно оценить сначала относительную погрешность косвенного измерения,
а потом уже найти его абсолютную погрешность. Следует, однако, обратить
внимание на то обстоятельство, что приведенные формулы применимы
только в том случае, если параметры X , Y , Z , .... не зависят друг от друга.
Если же, к примеру,
, где Z = X + Y расчет по формуле (18) приведет
к неправильному результату, т.к. погрешности одной и той же величины Y
будут приписаны различные знаки, поскольку указанная величина
фигурирует как в числителе, так и в знаменателе исходного выражения.
Более общие правила вычисления погрешностей, позволяющие избежать
подобных ошибок, можно получить, используя дифференциальное
исчисление.
Пусть по-прежнему A = ƒ(X, Y, Z, …) . Тогда относительную погрешность
косвенного измерения
можно записать в виде
. С другой
стороны,
Таким образом, относительная погрешность величины
А
равна полному дифференциалу натурального логарифма функции,
определяющей зависимость данной величины от измеряемых, т.е.
Таким образом, для нахождения необходимо:
1)
прологарифмировать исходную формулу ln A = ln ƒ(X, Y, Z, …)
2) продифференцировать полученное уравнение, заменив
дифференциалы dA , dX , dY ... погрешностями ΔA, ΔX, ΔY, ... ;
затем
3) сгруппировать члены, содержащие одни и те же погрешности, вынести
эти погрешности за скобки, а выражения в скобках взять по модулю;
4) заменить знаки “-” перед коэффициентами при погрешностях на знак “+”
(для нахождения максимального значения Е).
Общая формула для расчета относительной погрешности будет при этом
выглядеть следующим образом:
,
(19)
В качества примера приведем оценку относительной погрешности величины
γ, вычисляемой по формуле
, где средние значения параметров,
полученные после проведения серии измерений (отсчеты по шкале манометра в работе 1.65 ).
Надо сказать, что расчет по формуле (20) приводит, как правило, к
завышению погрешности результата косвенных измерений. Причем это
завышение зависит от числа параметров Х, Y, Z, ... Если, например, имеется
пять таких параметров, то вероятность того, что все ошибки будут иметь
заданный знак, равна
. При большем их числе указанная вероятность
будет еще меньше. Таким образом, понятно, что максимально возможное
значение относительной погрешности, даваемое выражением (20), во многих
случаях значительно больше реальной погрешности результата.
Теория вероятностей дает более правильные формулы для оценки
погрешностей косвенных измерений. Если при прямых измерениях
параметров X, Y, Z ... доминирующей является случайная погрешность, то
погрешность косвенного измерения также является случайной величиной.
Это означает, что следует искать среднюю квадратичную погрешность
результата. Так, если A = X + У, то вместо выражений (13) и (14) будем
иметь:
и
(21)
Общая формула для расчета относительной погрешности будет в этом случае
иметь следующий вид:
(22)
или
(23)
В частности, при
, имеем:
(24)
Следует подчеркнуть, что расчет погрешностей по формулам (22) - (24)
желательно производить в тех случаях, когда погрешности измеряемых
параметров имеют, в основном, случайный характер. В условиях же,
например, учебной лаборатории, ввиду несовершенства измерительных
приборов приходится главным образом иметь дело с приборными
погрешностями. При этом большинство величин, входящих в расчетную
формулу, измеряются только один раз. К тому же общее число параметров
обычно невелико. Поэтому можно рекомендовать для оценки погрешностей
косвенных измерений более простые формулы (13) – (20).
Очень часто в выражении, используемом для определения искомой
величины, встречаются параметры, которые в данном эксперименте
непосредственно не измеряются. Это могут быть табличные величины (π , g ,
и т.п.), либо величины, определенные кем-либо заранее и представленные в
виде готового результата (например, масса гири или диаметр катушки,
заключенной внутри установки). Поскольку указанные величины не
являются абсолютно точным, следует учесть вклад соответствующих
погрешностей в погрешность вычисляемого результата.
Для оценки погрешности в этих случаях (если, конечно, последняя не задана
в явном виде) может быть рекомендовано следующее общее правило:
абсолютная погрешность берется равной половине единицы наименьшего
разряда, представленного в числе. Так, если задана плотность жидкости
ρ = 4,0380·103 кг/м3, то погрешность следует взять равной 0,00003 кг/м3
Указанный способ оценки погрешностей вытекает из того факта, что
последняя цифра в числе уже не является в большинстве случаев точной
(смотри ниже правила округления). Что касается табличных величин, то они
при необходимости могут быть взяты с очень большой точностью. Тогда
связанными с ними ошибками пренебрегают. При значительном же
округлении этих величин погрешности возрастают и, в принципе, должны
быть учтены. Их расчет обычно ведется по общему правилу, т.е. если
используется значение π = 3,14, то Δπ = 0,005.
Рассчитав окончательно относительную погрешность Е , находят затем
абсолютную погрешность косвенного измерения ΔА = Е·А.
(25)
Обработка результатов измерений
Все экспериментальные данные, получаемые в результате прямых
измерений, должны быть занесены в специальную таблицу (или таблицы).
Для величин, значения которых измерялись по нескольку раз, необходимо
подсчитать среднее арифметическое серии измерений. При этом следует
пенить, что точность обработки числового материала должна быть
согласована с точностью самих измерений. Обычно при вычислении средних
значений рекомендуется оставлять на одну значащую цифру больше, чем
содержится в непосредственно измеренных значениях.
Затем
необходимо
произвести
оценку
случайной
погрешности.
Используемые для расчетов средней квадратичной ошибки значения ΔXi и
(ΔХi)2 удобно поместить в ту же таблицу, где находятся результаты опытов
(т.е. значения Xi). Для сравнения там же обычно указывают и погрешности
использовавшихся приборов.
Расчет конечного результата измерений, которые являются в большинстве
случаев косвенными, производится один раз. При этом в расчетную формулу
подставляются средние значения измеренных параметров. Дальнейшая
обработка сводится к вычислению относительной и абсолютной
погрешностей по изложенной методике.
Для правильной записи конечного результата в виде (12) необходимо
округлить значение абсолютной погрешности и сам результат измерений.
Как правило, точность оценки погрешности оказывается очень небольшой,
особенно в тех случаях, когда число входящих в расчетную формулу
параметров велико. Поэтому абсолютная погрешность округляется, как
правило, до одной значащей цифры. Если, однако, эта цифра оказалась
единицей, следует оставить две значащие цифры.
Округление самой измеренной величины следует проводить, учитывая ее
абсолютную погрешность. При этом последняя значащая цифра в
приводимом результате должна быть того же порядка величины (находиться
в той же десятичной позиции), что и погрешность. Все более мелкие разряды
не несут никакой информации и должны быть отброшены (или заменены нулями). Особенно строго следует придерживаться этого правила в тех случаях,
когда погрешность не указывается в явном виде, так как именно последний
разряд числа, дающего значение физической величины, показывает точность
ее определения. Или, например, в результате расчетов получено, что J =
0,1428 кг·м3, ΔJ = 0,00791 кг·м3, то правильная запись конечного результата
будет выглядеть так:
J = 0,014 ± 0,008 кг·м3.
В некоторых случаях при обработке результатов измерений удобно
пользоваться графическим методом. Этот метод позволяет проследить
зависимость одной физической величины от другой (например, зависимость
периода колебаний физического маятника от расстояния между его центром
масс и осью вращения). Иногда построение графиков необходимо для
определения усредненных значений тех или иных параметров. (Можно, к
примеру, найти ускорение тела по графику зависимости пути от квадрата
времени).
При построении графиков обычно используется прямоугольная система
координат с равномерным масштабом по осям Х и Y. Значения аргумента
следует откладывать по оси X, а значение функции - по оси Y. Масштаб
может быть произвольным, но при его выборе рекомендуем
руководствоваться следующими указаниями.
Проводимая кривая должна занимать весь лист используемой миллиметровой
бумаги. При этом следует иметь в виду, что пересечение координатных осей
совсем необязательно должно совпадать с нулевыми значениями аргумента и
функции. Важную роль играет также удобство построения и использования
графиком. Надо поэтому выбирать такой масштаб, чтобы координаты любой
точки графика могли быть быстро и легко определены. Это условие всегда
выполняется, если в единице масштаба (например, в 1 см) заключается 10n ,
2·10n или 5·10n единиц измерения физических величин, откладываемых по
осям координат (n - любое целое число).
После того, как масштаб выбран, следует начертить координатные оси,
отметив на них деления масштаба, и указать буквенные обозначения и
размерность откладываемых величин. Если эти величины очень малы (или
очень велики) при нанесении масштаба удобно использовать
рационализированную форму записи, указывая порядок величины рядом с ее
буквенным обозначением. При этом допускается два вида записи. Пусть,
например, индукция магнитного поля катушки с током меняется в пределах
(2÷8) 10-5 Тл. На графике зависимости В(I) около делений масштаба надо
проставить числа 2, 3, 4 и т.д., а сверху написать либо В, 10-5 Тл, либо Вx105, Тл.
Полученные экспериментальные данные наносятся в виде графика Y = Y(Х),
где точки имеют координаты Хn , Yn , окруженные эллипсами с главными
полуосями ΔXn , ΔYn . Эллипсы отражают погрешности измерения. Часто
вместо эллипсов рисуют крестики, точки, кружочки и пр. Затем строится
кривая, демонстрирующая вид изучаемой функции. Кривая должна быть
плавной и может проходить как через экспериментальные точки, так и в
непосредственной близости от них. Желательно, чтобы указанные точки
оказались па обе стороны кривой, приблизительно на одинаковых от нее
расстояниях.
Для наиболее точного построения искомой кривой используют так
называемый метод наименьших квадратов. Следует подчеркнуть, что
указанный метод не дает ответа на вопрос, какого вида функция наилучшие
образом аппроксимирует данные точки, а позволяет лишь выбрать наиболее
подходящую кривую определенного вида (параболу, прямую, экспоненту и
т.д.).
Как правило, отклонение точек от кривой не должно превышать абсолютную
погрешность
проведенных измерений. Эти погрешности, как уже
говорилось, могут быть указаны на графике в виде эллипсов или отрезков,
отложенных от каждой точки (рис. 2). Сильное отклонение отдельных точек
от аппроксимирующей кривой связано в основном с ошибками, допущенными при восполнении опытов. Поэтов желательно строите графики в
процессе измерений или сразу же после них, чтобы иметь возможность
выявить подобные ошибки, называемые промахами, и при необходимости,
провести
дополнительные
измерения.
Построение графика в ходе
эксперимента позволяет также
осуществить
наиболее
рациональное
количество
измерений. В тех областях, где
ход
кривой
монотонный,
можно
ограничиться
небольшим числом измерений.
Вблизи
максимумов,
минимумов и точек перегибов кривой измерения надо производить
значительно чаще.
Пользуясь полученной кривой, можно оценить значения изучаемой функции
для тех значений аргумента, которые непосредственно не наблюдались
(интерполяция). Для этого из любой точки на оси абсцисс (в пределах
диапазона изменения аргумента) надо провести перпендикуляр до
пересечения с кривой. Его длина с учетом масштаба даст значение искомой
функции, соответствующее выбранному значению аргумента. Примерный
вид графика, построенного по экспериментально полученной зависимости
напряжения на конденсаторе колебательного контура от частоты генератора
(вынужденные колебания), показан на рисунке 2 .
http://www.ve-2-00.narod.ru/texts/glucks.htm
Метрология
Последние
годы
в литературе,
посвященной вопросам
экономики и организации производства, конструкций и технологии, чаще
используют малознакомые термины: метрология, стандартизация
и сертификация.
Эти термины
понятием качества.
связаны с направлением,
качеством
продукции,
Качество – это способность продукции процесса или услуги
удовлетворять потребности общества или отдельного лица.
Сертификация – это средство защиты здоровья, жизни и кошелька
потребителя.
Метрология – это наука об измерениях, методах и средствах, их
единства и способов достижения требуемой точности.
Задача метрологии:
не
только
теоретические вопросы
обеспечения единства измерений и достижения требуемой точности, но
и установление обязательных правил, требований и организационных
мероприятий, направленных на достижения этих целей.
Основные проблемы метрологии:
развитие общей
теории измерений и разработка
способов исключения или уменьшения
погрешностей,
создание и совершенствование систем единиц физических величин
- создание и совершенствование системы эталоном
создание
и
совершенствование научных основ,
передача размерам единиц физических
величин от эталонов к рабочим
средствам измерений
Законодательная метрология – это раздел метрологии, включающий
комплексы взаимосвязанных и взаимообуславливающих общих правил,
требований и норм, а также другие вопросы, требующие регламентации и
контроля со стороны государства, направленные на обеспечение единства
измерений и единообразия средств измерений.
Практическая
(прикладная)
метрология
практического применения
теоретической и положения законодательной
Основные понятия метрологии
посвящает вопросы
разработок,
метрологии.
Физическая величина – это характеристика одного из свойств
физического объекта, общая в качественном отношении, но индивидуальная
в количественном отношении для каждого объекта. (Например: вес тела)
Реальные величины – это величины входящие в физические или
химические уравнения.
Не физические величины – это величины, используемые в
социологии, экономике, психологии и др. областях.
Математические величины – это величины, принципиально
отличающиеся от реальных тем. Что не подвижны изменениям вследствие
внешних воздействий, для их измерений не требуются какие либо
технических средств, следовательно, их значение не отягощены
погрешностями.
Размер физической величины – это количество определенной
физической величины,
присуще конкретному предмету, системе, явлению или процессу.
Измеряемая физическая величина (измеряемая величина) – это
физическая величина подлежащая измерению, измеряемая или измеренная
в соответствии с основной целью измерительной задачи.
Влияющая физическая величина (влияющая величина) - это
физическая величина, не измеряемая данным средством измерений, но
вызывающая влияние на него и объект измерений, таким образом, что это
приводит к искажению результатов.
Физический параметр - это физическая величина, характеризующая
частную особенность измеряемой физической величины.
Род физической величины (род величины) – это качественная
определимость физической величины (Например: длины и параметр
являются величинами одного ода или однородными величинами, длина и
масса одной и той же детали являются разнородными величинами)
Переменная величина - это физическая величина, изменяющаяся по
размеру в процессе измерения. В этом случае выступает понятие и
постоянная величина, под которой следует понимать физическую величину.
Размер, которой по условиям измерительной задачи можно считать не
изменяющимися.
Единица физической величины - это физическая величина
фиксированного размера условно принятая для сравнения с ней однородных
величин, которой присваивается числовое значение. (Например: 1 метр –
единица длины, 1 Па – единица давления)
Система единиц физических величин – это совокупность основных
и производственных единиц физических величин системы, образованная в
соответствии с принятыми принципами.
Системная единица физической
физической величины, входящая в
величины
–
это
единица
принятую систему единиц (1м, 1с, 1м/с, 1Н) являются системными
единицами, входящими в СИ.
Внесистемная единица физической величины – это единица
физической величины, не входящая не в одну из принятых систем единиц,
по отношению к единицам СИ внесистемной единицы. Подразделяют на
три вида:
1. Допускаемые наравне с единицами СИ (m – единица массы, л –
единица вместимости), сюда же входят единицы, допускаемые к
применению в специальных областях (га – в с/х)
2. Временно допускаемые (миля)
3. Подлежащие изъятию из употребления (мм.рт.ст., лошадиная
сила)
Основная единица (система единиц) – единица физической
величины выбранная произвольно при построении системы единиц.
Основными единицами СИ являются: м, кг, с, А, Кл.
Дополнительная единица (система единиц) – единица физической
величины международной системы единиц, входящая в группу
дополнительных единиц. К числу дополнительных единиц СИ относятся:
радиан.
Производная единица (система единиц) – образовывается в
соответствии с уравнением, связывающим её с основными системами.
Кратная единица физического
вещества – это единица
физического вещества в целое число раз большая системной или
внесистемной единицы.
Дальняя единица физической величины – это единица физической
величины в целое число раз меньшая системной или вне системной
единицы
Когерентная единица физической величины – производная
единицы физической единицы связанная с другими единицами системы
уравнений, в которых коэффициент равен 1.
Измерение физической величины
Измерение физической величины – это совокупность операций по
применению технического средства, хранящие единицы физических
величин, заключающихся в сравнении размера измерения величин, с её
единицей в форме калибровки, удобной для использования.
Измерения классифицируются:
1. По характеристике точности: равноточные и неравноточные;
2. По числу измерений (серий): однократные и многократные;
3. По отношению изменений измерения величин: статные и
динамические;
4. По выражению результата измерений: абсолютные и
относительные;
5. По общим приёмам результатов измерений: прямые, косвенные,
совместные, совокупные.
Равноточные измерения – это ряд измерений какой-либо величины,
выбранных одинаковыми по точности средствами измерений в одних и тех
же измерениях.
Неравноточные измерения – это ряд измерений каких-либо величин,
выполненных различными по точности средствами измерений или в разных
условиях.
Однократные измерения – это измерения, выполненные один раз
(измерение моментами времени).
Многократные измерения – это результат из нескольких измерений,
следующих друг за другом, т.е. измерения состоящее из ряда однократных
измерений.
Статическое измерение
Статическое измерение - это измерение физической величины,
принимаемое в соответствии с конкретной измерительной задачей за
неизменное на протяжении всего времени измерения.
Динамическое измерение - это измерение физической величины,
размер которой изменяется с течением времени. Быстрое изменение
размера измеряемой величины требует её измерения с точной
фиксацией момента времени.
Техническое измерение - измерение при помощи технических средств
измерений. Они выполняются с целью контроля и управления
научными
экспериментами,
контроля
параметров
изделий,
технологических процессов, управления движением различных видов
транспорта, контроля загрязнённости окружающей среды и т.д.
Метрологическое измерение- измерение при помощи эталонов и
образцовых средств измерений с целью воспроизведения единиц
физической величины или передачи их размера рабочим средствам
измерений.
Абсолютное измерение- измерение, приводящее
измеряемой величины, выраженной в её единицах.
к
значению
Относительное измерение- измерение отношения величины к
одноименной величине, играющей роль единицы или изменяемой
величины по отношению к одноимённой величине, принимаемой за
исходную.
Прямое измерение- измерение, при котором искомое значение
величины получают непосредственно (измерение температуры
воздуха термометром, силы тока - амперметром, промежутка времени
- секундомером).
Косвенное измерение- измерение, при котором значение физической
величины определяют на основании результатов прямых измерений
других физических величин, функционально связанных с искомой.
Совокупные измерения- измерения нескольких однородных величин
в различных их сочетаниях, значения которых определяют путём
решения системы уравнений.
Совместные измерения - одновременные измерения двух или
нескольких неоднородных величин для установления зависимости
между ними. Например, на основании ряда одновременных измерений
приращений длины l образца в зависимости от изменения его
температуры t определяют коэффициент k линейного расширения
образца.
Измерительный прибор - это средство измерения, предназначенное
для получения значения измеряемой величины в установленном
диапазоне.
Различают следующие типы приборов:
 показывающие;
 регистрирующие;
 интегрирующие;
 суммирующие;
 прямого
действия;
 сравнения.
Измерительная
установка
совокупность
функционально
объединённых мер измерительных приборов, измерительных
преобразователей и других устройств, расположенных в одном месте
и предназначенных для измерения одной или нескольких физических
величин.
Измерительная
неё образцовыми средствами
установкой.
установка с включенными в
измерений называется поверочной
Измерительную установку, входящую в состав эталона, называют
эталонной.
Установка, предназначенная для испытаний каких-либо
называют испытательным стендом.
изделий,
Измерительная
система
совокупность
функциональнообъединенных мер измерительных приборов - преобразователей и
других технических средств, размещенных в разных точках
исследуемого
прибора.
Метод и методика измерений
Метод измерения - это способ решения измерительной задачи,
характеризующийся его теоретическим обоснованием и разработкой
основных приёмов применения средств измерения.
Методы измерения весьма разнообразны и подразделяются на:
1.
Методы непосредственной оценки. Значение величины
получают непосредственно по отсчетному устройству.
2.
Метод сравнения с мерой. Измеряемая величина сравнивается с
величиной воспроизводимой меры.
3.
Метод замещения. Измеряемая величина замещается мерой с
известным значением.
Результат измерения и его характеристики
Результат измерения физической величины физической величины, получаемое путем измерения.
это
значение
Неисправленный результат измерения - значение физической
величины, полученное при помощи средств измерений до введения
поправок.
Исправленный результат - значение физической величины,
полученное при помощи средства измерения и уточненное путем
введения в него необходимых поправок.
Сходимость результатов измерений - характеристика качества
измерения, отражающая близость друг другу результатов измерений
одной и той же величины, выполненных повторно одними и теми же
средствами ( одним и тем же методом в одинаковых условиях)
Воспроизводимость результатов измерения характеристика
качества измерения, отражающая близость друг другу результатов
измерений одной и той же величины, полученных в разных местах и
разными средствами, разными операторами, в разное время, но
приведенное к одним и тем же условиям.
Точность результата измерения - это характеристика качества
измерения, отражающая близость к нулю погрешности его результата.
Чем меньше погрешность, тем выше точность измерения.
Правильность результата измерения - это характеристика качества
измерения, отражающая близость к нулю систематических
погрешностей в их результатах.
Измерительная информация - информация о значениях одной или
нескольких физических величин. Она может быть представлена в
различной форме в виде числа, слова или кода.
ПОГРЕШНОСТЬ РЕЗУЛЬТАТА ИЗМЕРЕНИЯ
Погрешность результата измерения – это отклонение результата
измерений от истинного значения измеряемой величины.
Погрешность измерения находят по формуле:
– значение величины, полученное на основании измерений.
- значение величины принятое за действительное.
Систематическая погрешность измерений – это составляющая
погрешности результата измерений, остающаяся постоянной для
данного ряда измерений или же закономерного измеряются при
повторных измерениях одной и той же физической величины.
Постоянные систематические погрешности – это погрешности
длительное время сохраняющие свои значения. (Например: в течение
всей серии измерений)
Прогрессивные систематические погрешности – это непрерывно
возрастающие или убывающие погрешности. (Например: погрешности
от износа измеряемых наконечников)
Периодическая система погрешности – это погрешность значение
функции является время.
Случайная погрешность измерения – это составляющая погрешности
результата изменения, изменяющая случайным образом по закону или
значению в серии одного и того же размера физической величины.
Размах результатов измерений – это алгебраическая разность
наибольшего и наименьшего результатов отдельных измерений:
– размах.
– наибольшее и наименьшее значение величины в данном ряду
измерений.
Средняя арифметическая погрешность отдельного измерения
Среднеарифметическая погрешность отдельного измерения в
серии - это обобщенная характеристика просеивания рассеяния
вследствие случайной величины отдельных результатов измерения
одной и той же величины, входящего в серию из n равноточных
независимых измерений.
Преимущество среднего арифметического погрешности - это
простота её вычисления. Чаще измеряют среднюю квадратическую
погрешность.
Предельная
погрешность измерения
это
максимальная
погрешность измерения (±), вероятность которого не превышает
значение р.
Погрешность воспроизведенной единицы – это погрешность
результата измерении, выполненное при восполненной единицы
физической величины.
Погрешность передачи размера единиц – это погрешность
результата измерения, выполненного при передаче единичного
размера.
Статическая погрешность – это погрешность результата измерения,
обусловленная условиями статического измерения.
Динамическая погрешность – погрешность результата измерения,
обусловленная условиями динамического измерения.
Погрешность средств измерений
От нагрузки
присущими средствами
измерения
зависит погрешность результата измерительной или иной физической
величины, т.е. погрешность средств измерений. Она является важным
компонентом, влияющим на качество измерения.
Теоретически
погрешность средств измерений
есть
разница между законченной величиной, полученной при помощи
более точного средства измерения.
Для
рабочего
средства
измерения более точным
образец средства измерения, для образцового – эталон.
является
В общем виде разность показаний проверяемого и образцового
средства измерения считают погрешность проверяемого средства
измерения.
– погрешность проверяемого средства измерения.
– значение величины, полученной с помощью образцового средства
измерения или эталона.
-
значение величины,
средства измерения.
найденной при помощи проверяемого
Погрешности средства измерения классифицируются по следующим
признакам:
1. По характеру проявления – систематическая и случайная.
2.По отношению и условию применения основного и дополнительного.
3.По отношению к измеряемой величине – дополнительной
и статической.
4. По способу выражения – абсолютная, относительная, приведенные.
5. По способу суммирования аддитивные и мультипликативные.
Предел допускаемой погрешности средств измерений – это
наибольшее
значение
погрешности
средств
измерений
устанавливаемый нормативным техническим документом для данного
типа, средств измерений при котором, оно еще признается годным в
применении.
Нормируемые метрологией характеристики средств измерений это наиболее рациональная совокупность составляющих погрешности
конкретного типа средств измерений, устанавливаемая нормативнотехническими документами на средство измерений.
Класс
точности
средств
измерений –
это
обобщающая
характеристика точности средства измерений выражаемая пределами
его основной и допускаемой погрешности.
Систематическая погрешность средств измерений – составляющая
погрешности средств измерений, принимая постоянной или
закономерно изменяющейся.
Случайная погрешность средства измерений – это составляющая
погрешности средства измерений изменяющая случайным образом.
Основная погрешность средства измерений – это погрешность
средства измерения, определяющая в нормальных условиях его
применения.
Статическая погрешность средства измерений - это погрешность
средства измерения, принимаемая при измерении физической
величины в статическом режиме.
Динамическая погрешность - это погрешность средства измерения,
возникающая при измерении переменной физической величины.
Аддитивная погрешность средства измерений – это составляющая
систематической погрешности средства измерений изменяющаяся
пропорционально измеряемой величины.
Стабильность средства измерений – это начальная характеристика
средства измерений, отражающая неизменностью во времени его
метрологических свойств.
Точность средства измерений – это качественная характеристика
средства измерений, отражающая близость его погрешности к нулю.
Абсолютная погрешность средства измерений - это погрешность
средства измерения, выраженная в единицах измеряемой величины.
Относительная погрешность средства измерений – это погрешность
средства
измерения,
выраженная
отношением
абсолютной
погрешности и действительному значению физической величины в
пределах диапазона измерений.
Нормальное
условие измерений – это условие измерений
характерные совокупности нормальных значений влияющих величин.
Нормальное значение величины – это значение влияющей величины,
установленное в качестве номинального.
Основные достоинства системы СИ
1.
Универсальность – охват всех областей науки и техники.
2.
Унификация единиц для всех областей и видов измерений
(механических, тепловых, световых и др.)
3.
Когерентность – все производные единиц СИ получаются из
уравнений связи между величинами, которых коэффициенты равны 1.
4.
Возможность воспроизведения единиц с высокой точностью в
соответствии с их определениями.
5.
Упрощенные записи уравнений и формул в физике и химии и др.
науках, а также в технических расчетах в связи с отсутствием
перечисленных коэффициентов.
6.
Уменьшение числа допускаемых единиц.
7.
Облегчение процесса обучения.
http://www.webkursovik.ru/kartgotrab.asp?id=-51310
Download