В. Н. Седалищев физические основы получения информации




НазваниеВ. Н. Седалищев физические основы получения информации
страница1/24
Дата публикации12.04.2013
Размер2.94 Mb.
ТипУчебное пособие
litcey.ru > Информатика > Учебное пособие
  1   2   3   4   5   6   7   8   9   ...   24
Министерство образования и науки Российской Федерации
ФГБОУ ВПО «Алтайский государственный технический университет

им. И.И. Ползунова»


В. Н. Седалищев

ФИЗИЧЕСКИЕ ОСНОВЫ ПОЛУЧЕНИЯ ИНФОРМАЦИИ
Ч.1 Генераторные и параметрические

измерительные преобразователи

Учебное пособие

Допущено научно-методическим советом АлтГТУ

для внутривузовского использования в качестве учебного пособия

для студентов, обучающихся по направлению

200100 «Приборостроение»


Издательство АлтГТУ

Барнаул  2012

УДК 681.5 (075)
Седалищев В.Н., Физические основы получения информации: учебное пособие/Алт. гос. техн. ун-т им. И.И. Ползунова. – Барнаул: Изд-во АлтГТУ, 2012.- Ч.1. Генераторные и параметрические измерительные преобразователи. – 283с.
Учебное пособие содержат описание физических эффектов, принципов построения и особенностей функционирования первичных измерительных преобразователей генераторного и параметрического типов.

Пособие предназначено для студентов, изучающих измерительную, информационную технику, автоматику и электронику.


Рекомендовано Алтайским государственным техническим университетом им. И.И. Ползунова в качестве учебного пособия для студентов АлтГТУ, обучающихся по направлению подготовки 200100 «Приборостроение». Протокол № 9 от 25 июня 2008 г.

Рецензенты:
А.А. Веряев, д.п.н., к.физ.-мат.н., профессор кафедры «Информационные технологии» института физического и математического образования Алтайской государственной педагогической академии;
Б.С. Первухин, к.т.н., гл. инженер ООО «Сибпромприбор-Аналит», г. Барнаул.

Введение
В настоящее время темпы накопления информации в области разработки и производства новых типов первичных измерительных преобразователей (датчиков) чрезвычайно высоки. Это сделало необходимым введение нового курса «Физические основы получения информации» в перечень блока фундаментальных дисциплин подготовки бакалавров по направлению 200100 «Приборостроение».

Учебное пособие по курсу «Физические основы получения информации», состоит из трех частей: «Генераторные и параметрические измерительные преобразователи», «Колебания и волны в измерительной технике» и «Современные фундаментальные и прикладные исследования в приборостроении».

В первой части учебного пособия рассматриваются вопросы анализа и синтеза первичных измерительных преобразователей генераторного и параметрического типов, изложены физические основы функционирования, особенности работы и области практического использования датчиков на их основе. Во второй части отражены особенности реализации колебательных и волновых процессов в измерительных устройствах. В третьей части представлены современные тенденции и направления в развития измерительной техники.


^ Глава 1. Информационно-энергетические основы теории измерений
Теория информации не менее значительный шаг в развитии научной мысли по сравнению с технической революцией, произошедшей более 100 лет назад, побудившей науку установить единую сущность различных видов энергии.

Информация в переводе с латинского - это разъяснение, осведомление, сведения о чём-либо, обозначение содержания, получаемого от внешнего мира в процессе приспособления к нему. В узкопрактическом смысле – это сведения, являющиеся объектом хранения, передачи и преобразования.

Также существуют различные подходы и к ее пониманию: она может быть абсолютной и относительной; естественной и искусственной. Под понятием информации подразумевается функция состояния системы.

Теория информации возникла первоначально в ходе решения задач, связанных с разработкой теории передачи потоков сообщений по каналам связи.

Сегодня информация – это философская категория наравне с материей и энергией используется для описания процессов в живой и неживой природе.

Понятие информации стоит в одном ряду с такими фундаментальными категориями как материя, энергия.
^ 1.1 Понятие информации. Разновидности информации

В зависимости от области знаний информация получила множество определений:

  • обозначение содержания, получаемое от внешнего мира в процессе приспособления к нему (Норберт Винер);

  • отрицание энтропии (Леон Бриллюэн);

  • устранение неопределенности (Клод Шеннон);

  • передача разнообразия (Эшби);

  • мера сложности (Моль);

  • вероятность выбора (Яглом) и др.

Различают два подхода к оценке информативности объектов и процессов. Для количественной оценки используют понятие синтаксической информации, а для качественной – семантической.

Семантический подход к понятию информация дает качественную оценку объекта и основан на использовании понятий ценности, практической значимости, полезности информации.

Информация абсолютна, а ценность ее – относительна. Формализовать семантический подход в общем случае пока не удалось. Количественно измерить информацию можно с помощью прибора, а для оценки качественной характеристики информации требуется тезаурус человека, определяемый его уровнем знаний (или искусственный интеллект). То есть, количественную оценку информации можно произвести уже на этапе ее получения, а качественную оценку – только на этапе ее обработки.

При количественной оценке используют понятия связанной и свободной информации. Связанная информация – это информация, содержащаяся в самой структуре предмета, явления, процесса. Свободная информация - это продукт человеческой деятельности, содержащийся в документах, результатах измерений. Таким образом, количество связанной информации всегда больше свободной информации об объекте.

В силу дискретности вещества и энергии непрерывность измеряемых физических величин является только некоторым приближением, абстракцией к рассматриваемым физическим процессам (в термодинамике, электричестве и др.). Так как материя и любое физическое явление дискретны, то рассматривать измеряемые параметры как постоянные физические величины справедливо лишь при выполнении условия:

>> (1.1)

где - значение измеряемой физической величины; - погрешность измерения.

Информативность объекта или процесса связана с понятием дискретности используемых для его описания физических величин.

Теория информации занимается проблемами получения (рецепции) и передачи информации, ее хранения и обработки. При этом ценность информации зависит от той цели, к которой стремится принимающий эту информацию объект (чаще всего предполагается, что это человек).

С появлением синергетики и внедрения ее в информатику ситуация изменилась. Во-первых, стал исследоваться вопрос об эволюции информации. В связи с этим расширилось представление об объектах, способных генерировать, передавать и воспринимать информацию. Во-вторых, стали исследоваться физические механизмы, лежащие в основе рецепции, запоминания и переработки информации. Ранее считалось, что это прерогатива физиков и техников, обеспечивающих элементарную базу информации. Теперь ясно, что они имеют принципиальное значение.

Например, вопрос о физических механизмах работы мозга – в частности, физической модели памяти - сейчас весьма актуален для конструирования ЭВМ нового поколения, устройств контроля и управления технологическими процессами и т.п.

Проблема рецепции информации требует физического подхода. При этом важную роль играет анализ биологических рецепторных систем, т.к. они по чувствительности пока чаще всего превосходят искусственные устройства.

Пространственно - волновая самоорганизация в сложных системах приводит к возникновению детерминированных и стохастических процессов. Причиной информативности могут являться, например, процессы, связанные с потерей устойчивости систем. Анализ причин неожиданных явлений в таких системах основан на анализе поведения динамических систем. При неустойчивых процессах очень малая причина может приводить к следствию, которое по масштабам несоизмеримо с причиной, т. е. в качестве причины выступает как - бы внутреннее свойство системы, ее неустойчивость.

Таким образом, информативность реальных систем, связана с понятием нелинейности протекающих в них физических процессов, явлений. Оптимальный выбор соответствующих физических эффектов и рациональное их использование в первичных измерительных преобразователях физических величин позволяет создавать на их основе различные типы высокоинформативных измерительных устройств.
^ 1.2 Количественная оценка информации

В 1928 году английский инженер Хартли предложил количественную оценку информации, основанную на использовании логарифма числа комбинаций результатов независимых экспериментов:

. (1.2)

В 1933 году Котельников В.А. опубликовал работу о теоретических исследованиях по оценке пропускной способности каналов связи.

В 1948 году в журнале американской телефонной компании «Белл систем» появилась статья 32-летнего инженера-связиста Клода Эльвуда Шеннона «Математическая теория связи». Данная статья с постановкой сугубо технической прикладной задачи (влияние шума на канал связи) привела к созданию теории информации. Главным принципиально новым в этой статье явилась введенная Шенноном мера количества информации, что позволило измерять информацию при ее получении, передаче, хранении, обработке с помощью техническими устройствами.

, (1.3)

где: - мощность сигнала; - мощность шума.

Если в канале передачи информации возможны искажения сигналов или измерения производятся с погрешностью, то количество получаемой информации определяется разностью энтропий априорной () и апостериорной ().

. (1.4)

А.Н. Колмогоров ввел три подхода для количественной оценки информации, выделяя при этом три ее разновидности: комбинаторную, вероятностную и алгоритмическую.

Вероятностная информация характеризует общее число возможных микросостояний системы.

Комбинаторная информация оценивает число возможных комбинаций, определенных сочетаний, композиций состояния системы.

Алгоритмическая информация определяет минимальную длину алгоритма, описывающего неизвестную величину.

Количественная оценка информации является объективной, а качественная оценка (ценность информации) является субъективной оценкой. Для количественной оценки ценности полученной информации предлагаются различные математические соотношения.

Например, мера ценности информации, предложенная Бонгардом и Харкевичем, определяется с использованием формулы:

, (1.5)

где - вероятность достижения цели до получения информации;

- вероятность достижения цели после получения информации.

Корогодиным для этой же цели предлагается другая формула:

. (1.6)
^ 1.3 Связь понятий энергии и информации

Информационная революция поставила на повестку дня вопрос об углубленном изучении сущности единства и противоположности понятий информации и энергии. Связующим звеном между этими понятиями является понятие энтропии. До создания теории информации в понятие «информации» никто не пытался вкладывать строгий научный смысл. Информация, как простая осведомленность о чем-либо казалась вполне исчерпывающим для науки и для повседневной жизни до тех пор, пока не возникла необходимость в количественном измерении сведений, знаний, потребность в машинной обработке огромных массивов информации.

Впервые вероятно-статистический подход для описания состояния физического тела был применён Людвигом Больцманом, который использовал понятие энтропии, введенное Рудольфом Клаузиусом () за 20 лет до этого (в 1854 году), для описания термодинамического состояния газа.

Клаузиус термин «энтропия» образовал из греческого корня «тропэ», означающего «превращение», к которому добавил приставку «эн», чем хотел подчеркнуть родство введенного им в науку понятия с понятием энергии. Корень «тропэ» Клаузиус употребил потому, что с помощью энтропии удалось проанализировать процессы превращения одних форм энергии в другие. Аналогичную роль сыграло понятие энтропии и в теории информации.

Энтропия – это мера незнания о конкретном состоянии объекта, мера неопределённости, мера беспорядка. Энтропия количественно определяется как средняя логарифмическая функция множества вероятностей возможных состояний системы.

Понятие вероятности в статистической физике связано с понятием энтропии. По Больцману энтропия пропорциональна логарифму числа микроскопических состояний в микросистеме:

, (1.7)

где: число микросостояний;

постоянная Больцмана.

Термодинамическое равновесие характеризуется максимумом энтропии и соответствует наиболее неупорядоченному молекулярному состоянию.

При переходе от термодинамической энтропии к математической необходимо учитывать изменение основания логарифма:

. (1.8)

В математической статистике используют закон больших чисел и центральную предельную теорему для больших выборок. Значение математической энтропии определяется плотностью вероятности наступления определенного события:

(1.9)

где: - плотность вероятности события.

Чем больше событий, тем меньше вероятность кого-либо конкретного события, тем выше его информативность.

Математическая статистика, теория вероятностей используется и в метрологии, где числу микросостояний соответствует число различимых градаций, а его логарифм – энтропии:

. (1.10)

Количество получаемой измерительной информации определяется разностью значений априорной энтропии (), отражающей неопределенность измеряемой физической величины до эксперимента, и апостериорной () энтропии, соответствующей оставшейся неопределенности о значении физической величины после измерения:

=, (1.11)

где: – измеряемая величина;

- неопределённость полученных результатов.

Информационный подход, основанный на использовании понятия энтропии, является общим для анализа физических процессов, измерения значений физических величин, получения, передачи и хранения информации. В термодинамике температура, давление являются статистическими величинами. В математической статистике при стремлении объема выборки к бесконечности вероятность заменяется определенностью. Но в физике определенности быть не может, т.к. всегда есть флуктуации, без наличия флуктуаций невозможно получить информацию. В этом есть отличие классического и квантового подхода в физике, статистики и теории вероятности в математике.

Максвелл доказал, что скорости молекул в газе имеют то же самое распределение, что и ошибки наблюдений у Гаусса и это не является случайным совпадением, так как определяются одними и теми же законами.

Малые флуктуации возникают в больших системах, а большие флуктуации в малых системах.

Главное достоинство понятие энтропии – быть мерой неопределенности, хаоса, что позволяет перейти от динамической картины мира к статистическому описанию физических процессов и явлений.

Рассмотрим простейшую термодинамическую систему, состоящей из двух соединенных между собой полостей, в одной из которых находятся атомы идеального газа. В результате соударений между собой и со стенками емкостей атомы будут хаотически перемещать в замкнутом пространстве, случайным образом перераспределяясь между двумя емкостями.



(6.1)Варианты возможных состояний системы
Проведя анализ возможных комбинаций перераспределения атомов между емкостями можно определить вероятность появления каждой комбинации. При этом для N равновероятных событий вероятность (Р) каждого события равна:

, (1.12)

где - число конкретных реализаций.

Возможно несколько вариантов состояния такой системы, причем с разной вероятностью их появления:

; ; ; ; .

Сумма вероятностей всех возможных комбинаций равна:.

Информативность такой системы соответствует среднему значению ее энтропии:



Н= = 2,3 бит.

На основании проведенного анализа модели простейшей термодинамической системы можно сделать вывод, что наиболее вероятным состоянием для идеального газа является равномерное распределение атомов в объеме. Но при этом будут иметь место флуктуации плотности частиц в разных областях пространства, причем малые флуктуации будут происходить чаще, чем большие. Такие процессы являются одной из причин появления неопределенности количества информации, получаемой при измерении.


Рисунок 1.2 - Статистические характеристики состояния системы
На рисунке 1.2 приведены гистограмма и ступенчатая характеристика, отражающие дифференциальный и интегральный законы распределения случайных величин, описывающих поведение данной динамической системы.

Очевидно, что с ростом числа частиц будет возрастать и информативность такой системы. При переходе количества комбинаций состояния системы половины их общего числа, резко изменяется вероятность пребывания системы в равновесном состоянии.

Анализ процессов в реальных термодинамических системах требует необходимости учета взаимодействий между атомами, молекулами, что существенно усложняет характер протекающих в таких системах физических процессов, обусловливает наличие большого разнообразия состояний системы, определяет, в итоге, ее высокую информативность. Описание агрегатных состояний реальных физических систем требует введения новых понятий: негэнтропии, равновесной энтропии и т.п.

Для математического описания сложных динамических систем используют понятия вероятностной, комбинаторной и алгоритмической информации. Очевидно, дальнейшее развитие теории информации и других, смежных с ней наук приведет к возможности количественной оценки семантической информации, содержащейся в реальных объектах. Эта информация будет отражать наличие в объекте различных связей, взаимодействий, условий и других характеристик.

Для того, чтобы можно было производить измерения чего-либо, необходимо иметь соответствующие единицы измерений. В формуле Шеннона в качестве меры оценки информативности сигнала используется уровень сопутствующего ему шума. В измерительной технике уровню шума соответствует неопределенность измерительного процесса. Но это чисто энергетическая, обезличенная мера, а для качественной оценки информативности объектов и процессов необходимо использовать другие характеристики. Возможно, для оценки сложности таких систем будут использовать фрактальные критерии сложности систем, а в более простых случаях параметры, характеризующие степень нелинейности физических процессов и их математических моделей. При рассмотрении реальных термодинамических систем используя количественную оценку степени нелинейности физических процессов можно оценить их информативность.

Например, максимальное значение количества информации в рассмотренной выше модели термодинамической системы равно 4 битам (вероятностная информация). Количественная оценка величины комбинаторной информации соответствует 2,3 битам. Исходное состояние в такой системе характеризовалось нулевым значением информативности, и по мере поступления в систему внешней энергии возрастала ее хаотизация, возрастало разнообразие ее возможных состояний. В реальных газах физические процессы характеризуются большим разнообразием и, соответственно, такие системы обладают большей информативностью. При этом возрастет комбинаторная составляющая количественной оценки информации, которая в пределе будет приближаться к значению вероятностной оценки информативности системы.

Так как при комнатной температуре: , то энергетическая цена одного бита информации при нормальных условиях не может быть меньше значения: . С учетом того, что , можно определить минимальную необходимую для получения и передачи сигнала мощность устройств.

Например, мощность любого технического устройства с информационной производительностью 1Гбит в секунду должна быть не менее:



В реальных условиях уровень шумов существенно превышает термодинамическую составляющую, поэтому для получения, передачи и преобразования измерительной информации требуются значительно более мощные устройства.

В приведенных примерах речь идет о микроинформации (связанной информации), а в реальности для макрообъектов имеют дело с макроинформацией (свободной информацией).

При получении измерительной информации используют понятие рецепции информации (прием, получение). При этом выделяют два способа рецепции информации: генераторный и параметрический, соответственно, и измерительные преобразователи подразделяются на два типа: генераторные и параметрические типы.

Попытки практического применения энергетического подхода к анализу метрологических характеристик измерительных устройств предпринимались неоднократно, но не привели к разработке четкой теории, описывающей связь между затраченной энергией и точностью измерений. Положение изменилось после применения информационного подхода к измерительному процессу, основанному на использовании энергетического эквивалента количества информации, исследования взаимосвязи процессов передачи информации, с количеством используемой при этом энергии (Шеннон), связи теории информации с термодинамикой (Бриллюэн) и теории информации с теорией измерений. В основе объединения этих теорий лежит единство свойств математической информации, энтропии с термодинамической энтропией и неопределенностью в теории измерений, т.е. теории погрешностей измерений. Во всех случаях понятие энтропии связано с вероятностным описанием объектов и процессов. Например, если предоставить систему самой себе, то она начнет эволюционировать в сторону возрастания энтропии, происходит хаотизация системы. Поэтому получение информации связано с затратой энергии.

Например, при описании достаточно широко известного «демона» Максвелла нужно учитывать необходимость затраты энергии на считывание информации о скорости движения молекул, их направления движения и т.п. Решение задачи про «демона», предложенной Максвеллом в 1871 г. было дано Леоном Бриллюэном только через полвека. Суть его рассуждений заключается в том, что для определения скорости частиц потребуется энергия, превышающая энергию термодинамического шума системы.

В приведенном примере речь идет о микроинформации (связанной информаций), а для макрообъектов имеют дело с макроинформацией (свободная информация).
  1   2   3   4   5   6   7   8   9   ...   24

Похожие:

В. Н. Седалищев физические основы получения информации iconМетодические указания к лабораторным работам по курсу «Физические основы получения информации»
Патрушев Е. М., Патрушева Т. В., Седалищев В. Н. Методические указания к лабораторным работам по курсу «Физические основы получения...
В. Н. Седалищев физические основы получения информации iconМетодические указания к лабораторным работам по курсу «Физические основы получения информации»
Патрушев Е. М., Седалищев В. Н. Методические указания к лабораторным работам по курсу «Физические основы получения информации» для...
В. Н. Седалищев физические основы получения информации iconМетодические указания к практическим занятиям по курсу «Физические основы получения информации»
Патрушев Е. М., Патрушева Т. В методические указания к практическим занятиям по курсу «Физические основы получения информации» для...
В. Н. Седалищев физические основы получения информации iconУчебное пособие о мск 2007
Н 63 Физические основы получения информации: Измерительные преобразователи. Принципы измерения физических величин: учеб пособие/...
В. Н. Седалищев физические основы получения информации iconВ. Н. Седалищев Методические указания
Седалищев В. Н. Методические указания к расчетному заданию по дисциплине “Метрология, стандартизация и сертификация” для студентов...
В. Н. Седалищев физические основы получения информации iconВ. Н. Седалищев Методические указания
Седалищев В. Н. Методические указания к курсовой работе по дисциплине “Метрология, стандартизация и сертификация” для студентов направления...
В. Н. Седалищев физические основы получения информации iconПонятие информации о недрах. Источники информации о недрах, права...
Состав, назначение и источники получения информации в Государственной информационной системе «Недра»
В. Н. Седалищев физические основы получения информации iconФизические основы создания нелинейных измерительных устройств Современные...
От их характеристик все в большей мере зависит надежность и эффективность различных технических устройств. Физические принципы функционирования...
В. Н. Седалищев физические основы получения информации iconТ. П. Герасимова Начальный курс географии 6 класс 1ч в неделю
Источники получения знаний о природе Земли, населении и хозяйстве. Методы получения, обработки, передачи и представления географической...
В. Н. Седалищев физические основы получения информации iconПлан Предпосылки применения криминалистических средств и методов...
Криминалистические средства и методы получения информации о личности неизвестного преступника
Вы можете разместить ссылку на наш сайт:
Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
litcey.ru
Главная страница