информация что это в информатике
Что такое информация в информатике
Потяние информации довольно неоднозначное. Несмотря на то что оно существует уже довольно давно, в настоящее время ученые до сих пор не могут дать точное определение этому термину и говорят о том, что его необходимо рассматривать в виде неопределимого первичного понятия.
В современных учебниках по информатике можно найти различные толкования этого термина: информация является сведениями или знаниями о чём-либо, информация является знаниями, которые возможно передавать, собирать, хранить, использовать, обрабатывать, информация в информатике является базовым понятием науки, так как информатика это наука об информации. В информатике изучение данного понятия происходит с помощью главного инструмента компьютера.
Давайте более подробно ознакомимся с тем, что собой представляет данное понятие в информатике.
Это интересно: что такое код бодо в телефонии?
Определение понятия
Если перевести сам термин информация с латинского языка, то он будет означать изложение или сведение. В настоящее время наука до сих пор ищет общие свойства и закономерности, которые являются присущими информации, однако, данные в информатике являются неким интуитивным понятием, которое несет различные смыслы в различных сферах деятельности человека.
Несмотря на то что в настоящее время существует огромное количество определений данного термина, необходимо выделить наиболее общие и понятные из них. Данные являются отражением окружающего мира методом каких-то знаков и сигналов. Ценность сообщения, которую несут сведения, заключается в новых знаниях, содержащихся в данном сообщении.
Это интересно: приведите примеры информационной деятельности человека?
Типы информации
Они могут отличаться в зависимости от способа восприятия. Данные могут восприниматься с помощью наших чувств. Способы получения информации:
Кроме этого, сведения разделяют и относительно их формы. По форме они могут быть:
Сюда также можно отнести и видеоинформацию.
Это интересно: какой смысл обществоведы вкладывают в понятие истина?
Информация в информатике
Понятие данного термина в информатике имеет целый ряд свойств. К таким свойствам относятся следующие:
Информация является особым видом ресурсов, который обладает свойствами, характерными именно для него. К таким свойствам относятся следующие:
Рассмотрим каждое из данных свойств более подробно.
Носители и сигналы
Информация будет в любом случае связана с материальным носителем. Такими носителями могут быть:
Сигналом называется способ передачи данных. Сигнал представляет собой физический процесс, который имеет информационное значение. Сигналы могут быть дискретными или непрерывными. Дискретный сигнал может принимать только конечное число значений в конечном числе моментов времени.
Аналоговым сигналом называется тот сигнал, который непрерывно изменяется по амплитуде и по времени. Аналоговые сигналы, как правило, используются во время телефонной связи, радиовещания и телевидения.
Сигналы, которые несут текстовую или символическую информацию, являются дискретными.
Основные понятия информатики
Информатика является областью человеческой деятельности, которая связывается с процессами преобразования сведений при помощи компьютеров или других вычислительных аппаратов. Информатику также называют часто совокупностью определенных методов преобразования информации. Также ею называется прикладная дисциплина или отрасль производства.
В информатику, как правило, включаются технические средства, математические методы, программные продукты, типовые алгоритмы и модели. Говоря о технических средствах, сюда можно отнести компьютеры и разнообразные периферийные устройства в виде мониторов, клавиатур, принтеров, модемов. В состав технических средств ещё входят линии связи, средства оргтехники. Таким образом, можно сказать, что это те материальные ресурсы, которые способны обеспечить преобразования сведений, при этом главную роль в списке будет играть только компьютер. sexpromo.ch
В настоящее время информатика отличается довольно стремительным развитием. Уже сегодня наука о данных имеет целый ряд новых направлений: программирование, искусственный интеллект, кибернетика, информационные системы, теоретическая информация и вычислительная техника.
Само понятие информации в информатике является довольно новым в лексиконе человека. Содержание данного понятия можно назвать нечетким и размытым. Информатика связывается с данными и обработкой их на компьютерах. На поверхностном уровне может быть всё понятно, но если присмотреться получше, то вопрос становится очень сложным, чем кажется на самом деле.
Так как компьютеры в настоящее время являются очень распространенными, а человечество переживает так называемый информационный бум, азы информатики должны понимать все современные индивиды, которые хоть немного хотят шагать в ногу со временем. Именно данные факторы стали основой того, что преподавание информатики было введено в школьную программу. Поэтому в настоящее время каждый школьник получает возможность освоить эту интересную, новую и необходимую науку.
Информация что это в информатике
1. Понятие информации с точки зрения различных наук
В любой науке основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. Например, в определении понятия «информация» необходимо отразить, что она:
1. существует в неживой природе;
2. существует в биологических системах;
3. не всегда может быть выражена словами;
4. возникает в процессе общения;
5. хранится, обрабатывается, передается, и т.д.
В зависимости от области знания существуют различные подходы к определению понятия «информация».
Впервые как научное понятие термин «информация» стал применяться в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение, ознакомление.
В физике понятие информация рассматривается как антиэнтропия или энтропия с обратным знаком. Поскольку мерой беспорядка термодинамической системы является энтропия системы, то информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и т.д.).
Под информацией в технике понимают сообщение, передаваемое с помощью знаков и символов. В теории связи, например, под информацией принято понимать любую последовательность символов, не учитывая их смысл. В основанной американским ученым Клодом Шенноном математической теории информации под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Например, при передаче текста телеграммы вероятность появления буквы «т» равна 1/33. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше ее информативность.
Математическая теория информации не охватывает всего богатства содержания понятия информация, поскольку отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза из 100 слов, взятая из газеты, пьесы Шекспира или теории относительности Эйнштейна имеют приблизительно одинаковое количество информации.
Наш соотечественник математик Ю.А. Шрейдер оценивал информацию по увеличению объема знаний у человека под воздействием информационного сообщения. Академик А.А. Харкевич измерял содержательность сообщения по увеличению вероятности достижения цели после получения информации человеком или машиной. Таким образом, под информацией в семантической теории понимают сведения обладающие новизной.
В кибернетике – науке об управлении в живых, неживых и искусственных системах – понятие информации связывают воедино с понятием управления (Норберт Винер, Б.Н. Петров). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации. Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знания, которая используется для ориентирования, принятия решений, активного действия, управления, т.е. в целях сохранения, совершенствования и развития системы.
Данная концепция отрицает существование информации в неживой природе, не дает ответа на вопросы: являются ли информацией неиспользованные знания, являются ли информацией неосмысленная информация?
Для преодоления этих противоречий академик В.П. Афанасьев ввел понятие информационных данных. Информационные данные – это всякие сведения, сообщения, знания, которые могут храниться, перерабатываться, передаваться, но характер информации они приобретут лишь тогда, когда получат содержание и форму пригодную для управления и используются в управлении.
Дальнейшим развитием математического подхода к феномену информация послужили работы Р. Карнапа, И. Бар-Хиллела, А.Н. Колмогорова и многие др.
В этих теориях понятие информации не связано с содержанием сообщений, передаваемых по каналу связи. Информация – абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров материальная точка.
В биологии, которая изучает живую природу, понятие «информация» связано с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.
Понятие информация используется в связи с исследованием механизмов наследственности. В генетике сформулировано понятие генетической информации, которое определяется как программа (код) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, т.е. созданию точных копий организмов их одной клетки.
В социальных науках (социологии, психологии, политологии и др.) под информацией понимают сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.
Под информацией в документолистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.
С точки зрения индивидуального человеческого сознания информация – это то, что поступает в наш мозг из многих источников в разных формах и, взаимодействуя там, образует структуру нашего знания. Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, презирать, негодовать. Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую несмысловую информацию. Эту информации говорящий по своему желанию, а иногда и непроизвольно, сообщает нам своей тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.
Все знания об окружающем мире человек получает с помощью органов чувств. Насколько мы им можем доверять?
Информация нам нужна для того, чтобы принимать правильные решения. Поэтому необходимо, чтобы она обладала следующими свойствами или качественными признаками
Пример. а) На улице тепло. б) Температура воздуха 22 ºС (если термометр исправен).
1) преднамеренное искажение (дезинформация);
2) искажение в результате действия помех;
3) когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи, рыбацкие истории).
4. Актуальность (своевременность) информации – важность, существенность для настоящего времени. Только вовремя полученная информация может принести пользу. Неактуальной может быть информация по двум причинам:
1) она может быть устаревшей (прошлогодняя газета);
2) незначимой, ненужной (сообщение, что цены в Италии снижены на 5%).
5. Ценность (полезность или бесполезность) информации оценивается применительно к задачам, которые можно решить с ее помощью.
Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая.
Самая достоверная информация не может быть новой.
6. Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.
Некоторые представления о разнообразии информации может дать следующее определение (энциклопедический словарь). Информация – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетки, от организма к организму. Из этого определения следует существование 4 видов информации:
1. социальная (человек-человек);
2. техническая (человек-автомат, автомат-автомат);
3. биологическая (информация в живом и растительном мире);
4. генетическая (передача признаков от клетки к клетке, от организма к организму).
Другие основания классификации информации:
· по способам и формам получения (восприятия);
· по характеру носителя;
· по характеру источника;
· по сфере применения;
· по общественному значению.
У человека 5 органов чувств:
Человек воспринимает информацию по зрительному каналу: текстовую, числовую, графическую.
Человек воспринимает звуковую информацию: речь, музыка, звуковые сигналы, шум.
Человек воспринимает запахи окружающего мира.
Вкусовые рецепторы языка дают возможность получить информацию о вкусовых качествах предмета.
Человек имеет возможность получить информация «наощупь», через кожу.
Что такое информация?
Исследование How Much Information, проведенное в 2009 году показало, что количество потребляемой в неделю информации с 1986 года выросло в 5 раз. С 250 тысяч слов в неделю до 1,25 миллиона! С тех пор это цифра увеличилась в разы. Далее следуют ошеломительные показатели: в 2018 году количество интернет-пользователей и пользователей социальных сетей — 4.021 млрд и 3.196 млрд. Современный человек за день анализирует невероятное количество информации, применяя различные схемы и стратегии по ее обработке, для принятия выгодных решений. Человеческий вид сгенерировал 90% информации в этом мире за два последних года. Сейчас, если округлять, в день мы производим порядка 2,5 квинтильонов байт (2,5 * 10^18 байт) новой информации. Если разделить это число на количество живущих сейчас людей, то получится, что в среднем один человек за день создает 0,3 гигабайта информации.
Сколько информации занимают Homo sapiens? (далее Homo). Для простоты в информатике придумали термин под названием бит. Бит – это минимальная единица информации. Файл с этой работой занимает несколько килобайт. Такой документ пятьдесят лет назад занял бы всю память самого мощного компьютера. Средняя книга в цифровом варианте занимает в тысячу раз больше места и это уже мегабайт. Качественное фото на мощный фотоаппарат – 20 мегабайт. Один цифровой диск в 40 раз больше. Интересные масштабы начинаются с гигабайтов. ДНК человека, вся информация о нас с вами равна около 1,5 гигабайта. Умножаем это на семь миллиардов и получаем 1,05х10^19 байт. В целом, такой объем информации в современных условиях мы можем произвести за 10 дней. Это количество битов опишет всех живущих сейчас людей. И это только данные о самих людях, без взаимодействий между ними, без взаимодействий с природой и культурой, которую человек сам для себя создал. Насколько увеличится эта цифра, если добавлять переменные и неопределенности будущего? Хаос будет подходящим словом.
Информация обладает удивительным свойством. Даже когда ее нет, она есть. И здесь нужен пример. В поведенческой биологии есть знаменитый эксперимент. Друг напротив друга стоит две клетки. В 1-ой обезьяна высокого ранга. Альфа-самец. Во 2-ой клетке обезьяна статусом ниже, бета-самец. Обе обезьяны могут наблюдать за своим визави. Добавим в эксперимент фактор влияния. Между двумя клетками кладем банан. Бета-самец не посмеет взять банан, если знает, что альфа-самец тоже видел этот банан. Ибо он сразу прочувствует всю агрессию альфа-самца. Далее немного изменяют первоначальные условия опыта. Клетку альфа-самца накрывают непрозрачной тканью, чтобы лишить его обзора. Повторяя все то, что сделали до этого, картина становится совершенно иной. Бета-самец без каких-либо угрызений совести подходит и берет банан.
Все дело в его умении анализировать, он знает о том, что альфа-самец не видел, как положили банан и для него банана просто не существует. Бета-самец проанализировал факт отсутствия сигнала о появлении информации о банане у альфа-самца и воспользовался ситуацией. Постановка конкретного диагноза пациенту во многих случаях производится при нахождении у него определенных симптомов, однако огромное количество заболеваний, вирусов и бактерий может поставить даже опытного врача в тупик, как ему определить точный диагноз, не потратив время, которое может быть жизненно важно для пациента? Все просто. Он производит анализ не только по тем симптомам, которые есть у больного, но и по тем, которых у него нет, что сокращает время поиска в десятки раз. Если что-то не подает тот или иной сигнал, это тоже несет определенную информацию – как правило, негативного характера, но не всегда. Анализируйте не только информационные сигналы, которые есть, но и те, которых нет.
Эти примеры, добавляют нулей и единичек в цифры выше. В связи с перечисленными цифрами и проблемами возникает ряд вопросов. Как? Как этого удалось достигнуть? Способен ли организм/общество нормально функционировать в таких условиях. Как информация влияет на биологические, экономические и другие виды систем. Объем информации, который мы воспринимаем в 2019 году, покажется мизерным для потомков из 2050. Уже сейчас вид создает новые схемы и паттерны работы с информацией, изучает ее свойства и воздействие. Фраза: — “за год я прожил миллион лет” уже не шутки и не абсурд, а реальность. Количество информации, которое создает человек, влияет на социальную, экономическую, культурную и даже биологическую жизнь. В 1980 года мечтали создать квантовый компьютер для увеличения вычислительных мощностей. Мечта вида. Открытия, которое сулило это изобретение, должны были предвосхитить новую эру. В 2018 году IBM запустил в продажу первый коммерческий квантовый компьютер, но этого уже никто не заметил. Новость обсуждали невероятно малое количество людей. Она просто утонула в том информационном изобилии, в котором мы сейчас существуем. Основным направлением исследований в последние годы стали нейронауки, алгоритмы, математические модели, искусственный интеллект, что в целом говорит о поиске возможности нормального функционирования в обогащенной информацией среде. В 1929 году открыли нейроны фон Экономо, которые встречаются только у высокосоциальных групп животных. Есть прямой коррелят размера группы и размера мозга, чем больше группа животных, тем больше у них размер мозга относительно тела. Неудивительно, что нейроны фон Экономо встречаются только у китообразных, слонов и приматов. Нейроны фон Экономо отвечают за передачу больших объемов информации в мозге.
пока А.Г. Лукашенко не запретил им общаться, посмотри на них
Сколько потребовалось времени, чтобы связать эти два события? Долгое время роды вообще не связывали с половыми актами между мужчиной и женщиной. В большинстве культур и религий за рождение новой жизни отвечали боги. Точная дата открытия этой закономерности, к сожалению, так и не установлена. Однако стоит отметить, что до сих пор существуют закрытые общества охотников-собирателей, которые эти процессы не связывают, а за рождение в них отвечают особые ритуалы в исполнении шамана. Основной причиной детской смертности при родах до 1920 были грязные руки. Чистые руки и живой ребенок тоже пример неочевидной закономерности. Вот еще один пример закономерности, которая до 1930 года оставалась неявной. О чем речь? О группах крови. В 1930 году Ландштейнер получил за это открытие Нобелевскую премию. До этого момента знание о том, что переливать человеку можно ту группу крови, которая совпадает у донора с нуждающимся — было неясным. Подобных примеров тысячи. Стоит отметить, что поиск закономерностей то, чем вид занимается постоянно. Бизнесмен, который находит закономерность в поведении или потребности людей, а после зарабатывает на этой закономерности долгие годы. Серьезные научные исследования, которые позволяют прогнозировать изменение климата, миграцию людей, нахождение мест для добычи полезных ископаемых, цикличность комет, развитие эмбриона, эволюция вирусов и как верхушка, поведение нейронов в мозге. Конечно, можно все объяснить устройством вселенной, в которой мы живем, и вторым законом термодинамики о том, что энтропия постоянно возрастает, но этот уровень для практических целей не подходит. Следует выбрать более приближенный к жизни. Уровень биологии и информатики.
Что такое информация? Согласно распространённым представлениям, информация – это сведения независимо от формы их представления или решение проблемы неопределённости. В физике информация – это мера упорядоченности системы. В теории информации, определение этого термина следующее: информация – это данные, биты, факты или понятия, набор значений. Все эти понятия размыты и неточны, более того, я считаю, что немного ошибочны.
В доказательство этого выдвинем тезис — информация сама по себе бессмысленна. Что такое число “3”? Или что такое буква “А”? Символ без приписанного значения. Но что такое число “3” в графе группы крови? Это значение, которое спасет жизнь. Оно уже влияет на стратегию поведения. Пример, доведенный до абсурда, но не теряющий своей значимости. Дуглас Адамс написал “Путеводитель для путешествующих автостопом по галактике”. В этой книге, созданный квантовый компьютер должен был ответить на главный вопрос жизни и Вселенной. В чем смысл жизни и Вселенной? Ответ был получен спустя семь с половиной миллионов лет непрерывных вычислений. Компьютер заключил, многократно проверив значение на правильность, что ответ был “42”. Приведённые примеры дают понять, что информация без внешней среды, в которой она находится (контекста), ничего не значит. Число “2” может означать количество денежных единиц, больных эболой, счастливых детей или быть показателем эрудированности человека в каком-то вопросе. Для дальнейшего доказательства перейдем в мир биологии: листья растений часто имеют форму полукруга и сперва как бы поднимаются вверх, расширяясь, но после определенной точки преломления, тянутся вниз, сужаясь. В ДНК, как в главном носители информации или значений, нет гена, который кодировал бы их такую тягу вниз, после определенной точки. То, что лист растения тянется вниз, проделки гравитации.
Сама по себе ДНК, что у растений, что у млекопитающих, что уже у упомянутого Homo Sapiens, несет мало информации, если вообще это делает. ДНК — это набор значений в определенной среде. ДНК, в основном, несет факторы транскрипции, то что должно быть активировано определенной внешней средой. Помести ДНК растения/человека в среду с другой атмосферой или гравитацией, и на выходе получится другой продукт. Поэтому передавать инопланетным формам жизни нашу ДНК для исследовательских целей — довольно глупое занятие. Вполне возможно, в их среде, ДНК человека вырастет в нечто, что более ужасающе, чем двуногий прямоходящий примат с оттопыренным большим пальцем и идеями о равенстве. Информация — это значения/данные/биты/материя в любой форме и в непрерывной связи с окружающей средой, системой или контекстом. Информация не существует без факторов внешней среды, системы или контекста. Только в неразрывной связке с этими условиями, информация способна передавать смыслы. Говоря языком математики или биологии, информация не существует без внешней среды или систем, на переменные которых она оказывает влияние. Информация всегда является придатком тех обстоятельств, в которых она перемещается. В этой статье будут рассмотрены основные идеи теории информации. Труды интеллектуальной деятельности Клода Шеннона, Ричарда Фейнмана.
Отличительной особенностью вида является способность создавать абстракции и выстраивать закономерности. Представлять одни явления через другие. Мы кодируем. Фотоны на сетчатке глаза создают картинки, колебания воздуха преобразовываются в звуки. Определенный звук мы связываем с определенной картинкой. Химический элемент в воздухе, своими рецепторами в носу, мы интерпретируем, как запах. Через рисунки, картинки, иероглифы и звуки мы можем связывать события и передавать информацию.
вот он собственно говоря и кодирует твою реальность
Подобное кодирование и абстракции не стоит недооценивать, достаточно только вспомнить, насколько сильно оно влияет на людей. Кодировки способны одержать верх над биологическими программами, человек ради идеи (картинки в голове, которая определяет стратегию поведения) отказывается от передачи копий своих генов дальше. Или вспомнить всю мощь физических формул, позволивших отправить представителя вида в космос. Химические уравнения, которые помогают лечить людей и так далее. Более того, мы можем кодировать то, что уже закодировано. Простейшим примером может послужить перевод с одного языка на другой. Один код представляется в форме другого. Простота трансформации, как главный фактор успешности этого процесса, позволяет делать его бесконечным. Можно перевести выражение с японского на русский, с русского на испанский, с испанского на двоичную систему, с нее в азбуку Морзе, после представить это в виде шрифта Брайля, потом в форме компьютерного кода, а после в виде электрических импульсов пустить это прямо в мозг, где он декодирует сообщение. Недавно сделали обратный процесс и декодировали активность мозга в речь.
зафигачили в картинку выше электроды и считали всю твою уникальность
В период от сорока до двадцати тысяч лет назад первобытные люди начали активно кодировать информацию в виде речевых или жестовых кодов, наскальных живописей. Современные люди, наблюдая первые наскальные рисунки, пытаются определить (декодировать) их смысл, поиск смыслов — это еще одна отличительная черта вида. Воссоздавая контекст по определённым маркерам или остаткам информации, современные антропологи пытаются понять быт первобытных людей. Квинтэссенция процесса кодирования воплотилась в виде письменности. Письменность, разрешила проблему потери информации при ее передаче не только в пространстве, но и во времени. Иероглифы цифр позволяют кодировать вычисления, слова предметы и т.д. Однако, если с точностью проблема решена более-менее эффективно, если конечно же оба участника процесса коммуникации используют одинаковые условные соглашения на трактовку и процесс декодирования одних и тех же символов (иероглифов), то со временем и скоростью передачи печатная письменность потерпела неудачу. Для решения проблемы скорости были изобретены системы радио и телекоммуникаций. Ключевым этапом развития передачи информации можно считать две идеи. Первая — цифровые каналы связи, а вторая — развитие математического аппарата. Цифровые каналы связи решили проблему в скорости передачи информации, а математический аппарат в его точности.
Любой канал имеет определенный уровень шумов и помех, благодаря которым информация приходит с помехами (набор значений и иероглифов искажен, теряется контекст) или вообще не приходит. По мере развития технологий, количество шумов в цифровых каналах связи уменьшалось, но никогда не сводилось к нулю. По мере увеличения расстояния вообще увеличивалось. Ключевая проблема, которую необходимо решить при потере информации в цифровых каналах связи, была обозначена и решена Клодом Шенноном в 1948 году, а также он придумал термин бит. Звучит она следующим образом: — “Пусть источник сообщений имеет энтропию (Н) на одну секунду, а (С) — пропускная способность канала. Если H