Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: CXIII Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 18 марта 2021 г.)

Наука: Физика

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Ищук Н.А. ФИЗИЧЕСКИЕ ОСНОВЫ ИНФОРМАЦИИ // Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ: сб. ст. по мат. CXIII междунар. студ. науч.-практ. конф. № 6(113). URL: https://sibac.info/archive/meghdis/6(113).pdf (дата обращения: 18.11.2024)
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

ФИЗИЧЕСКИЕ ОСНОВЫ ИНФОРМАЦИИ

Ищук Николай Анатольевич

курсант 2 курса, 9 факультет, Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная Академия им. Профессора Н.Е. Жуковского и Ю.А. Гагарина»,

РФ, г. Воронеж

Хухрянская Елена Станиславовна

научный руководитель,

канд. техн. наук, доц., Военный учебно-научный центр Военно-воздушных сил «Военно-воздушная Академия им. Профессора Н.Е. Жуковского и Ю.А. Гагарина»,

РФ, г. Воронеж

АННОТАЦИЯ

Рассмотрено взаимодействие между информатикой и физикой, необходимое понимания межпредметных связей.

 

Ключевые слова: информация; сообщение; физика.

 

Современный этап развития науки характеризуется сильными межпредметными связями, что является конкретным выражением происходящих интеграционных процессов, с помощью которых не только на качественно новом уровне решаются задачи, но и закладывается фундамент для комплексного видения, подхода и решения сложных проблем.

При всем многообразии видов межнаучного взаимодействия можно выделить три наиболее общие направления: комплексное изучение разными дисциплинами одного и тоже объекта, использование методов одной науки для изучения разных объектов других направлений, привлечение различными науками одних и тех же теорий и законов для изучения разных объектов [1, с. 355].

Рассмотрим и проанализируем взаимодействие между информатикой и физикой, необходимое для понимания самой науки информатики. Термин «информатика» определяется, согласно словарю иностранных слов, как отрасль знаний, изучающая общие свойства и структуру информации, а также закономерности и принципы ее создания, преобразования, накопления, передачи и использования в различных областях человеческой деятельности [2, с. 294].

Сам термин информация при отсутствии единого определения наряду с материей, энергией и временем ученые относят к одной из исходных категорий. Поскольку информация может пониматься и интерпретироваться в различных предметных областях по-разному, имеются как различные подходы к определению измерения информации, так и различные способы введения меры ее количества. Количество информации – числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности, определенности, выбору состояний отображаемой системы. Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора или исхода. Такой оценкой может стать мера информации, которую определяют как непрерывную действительную неотрицательную аддитивную функцию, определенную на множестве событий. Меры могут быть как статические, так динамические, в зависимости от того, какую информацию они позволяют оценивать.

Физическая реализация любого информационных процесса - это перенос данных в пространстве и времени от источника к приемнику. При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в форме сообщения. Например, Клод Шеннон, заложивший основы теории информации, считает, что информация - это снятая неопределенность знаний субъекта о чем-либо.

С другой стороны, все окружающие объекты относятся к физическим телам или физическим полям. Они находятся в состоянии непрерывного движения и изменения, которое сопровождается обменом энергией и ее переходом из одной формы в другую. Все виды энергообмена сопровождаются появлением сигналов, т.е. все сигналы имеют в своей основе материальную энергетическую природу. При взаимодействии сигналов с физическими телами в физических телах возникают определенные изменения свойств, что называется регистрацией сигналов, изменения можно наблюдать, измерять или фиксировать иными способами. При этом возникают и регистрируются новые сигналы, то есть, образуются данные.

Определение количества информации оценивается по следующим мерам информационных данных: синтаксической, семантической и прагматической [3, с. 28]. Две последние относятся к относительным понятиям, поскольку семантическая определяет смысловую нагрузку данных и связывает соответствующие параметры информации с возможностью пользователя обрабатывать данное сообщение, а прагматическая определяет ценность получаемых сведений.

Синтаксическая же мера работает с обезличенными данными и оперирует с типом носителя, способом представления и кодирования, скоростью обработки и передачи. Количественную, абсолютную меру, которую можно оценить, является необходимый объем памяти для хранения данных об объекте. Информационный объем равен количеству знаков двоичной системы, используемой в вычислительных машинах, с помощью которых закодировано рассматриваемое сообщение. Для того чтобы определить синтаксическое количество информации, обратимся к физическому понятию энтропии как меры неопределенности состояния системы, т.е. знаний о состоянии ее элементов и системы в целом. Тогда количество информации - это изменение меры неопределенности системы, т.е. увеличение или уменьшение энтропии.

Энтропия опыта равна той информации, которую исследователь получает в результате его осуществления. Информация I – содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации. Если H1 – начальная энтропия (до проведения опыта), H2 – энтропия после проведения опыта, то информация

,

где  - формула Хартли определения энтропии.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, значение H будет равно 1 при n=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов, такая единица количества информации называется «бит». При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V в любом другом сообщении будет равен количеству символов, разрядов, в данном сообщении. Так как одна и та же информация может быть представлена многими разными способами, например, разными алфавитами, то и единица измерения данных соответственно будет меняться.

Возникнув в недрах термодинамики при решении некоторой частной задачи, понятие энтропии стало расширяться с удивительной энергией, быстро перешагнуло границы физики и проникло в самые сокровенные области человеческой мысли. Наряду с энтропией Клаузиуса появилась статистическая, информационная, математическая, лингвистическая, интеллектуальная и другие энтропии. Энтропия стала базисным понятием теории информации и стала выступать как мера неопределенности некоторой ситуации [4, c. 89].

В определенном смысле она является мерой рассеяния и подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин (например, нормального гауссова распределения), то энтропия не зависит от типа распределения.

Популярность энтропии связана с ее важными свойствами: универсальностью и аддитивностью. Со своей стороны, информация оказалась характеристикой степени зависимости некоторых переменных. Ее можно сравнить с корреляцией, но если корреляция характеризует лишь линейную связь переменных, информация характеризует любую связь.

 

Список литературы:

  1. Атанов И.В., Капустин И.В., Никитенко Г.В., Скрипкин В.С. Межпредметные cвязи в учебном процессе высшего учебного заведения // Современные проблемы науки и образования. – 2013. – № 6. – C. 355.
  2. Крысин Л.П. Иллюстрированный толковый словарь иностранных слов. – М.: Эксмо, 2011. – 864 с.
  3. Черпаков И. В. Теоретические основы информатики. – М.: Издательство Юрайт, 2017. – 353 с.
  4. Блюменфельд Л.А. Информация, термодинамика и конструкция биологических систем // Соросовский Образовательный Журнал. - 1996. - №7. –С.88-92.
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.