информатика, наука о связи и управлении в машинах и живых организмах. Первым употребил термин "кибернетика", по-видимому, древнегреческий философ Платон. Более ста лет назад это слово было использовано А.Ампером, а затем и другими европейскими авторами в более ограниченном социологическом смысле. Оно происходит от греческого слова, означающего "рулевой". Когда в 1948 Норберт Винер использовал этот термин, он не знал о более ранних его употреблениях. Он пытался найти удобный способ объединения различных наук, относящихся к коммуникациям и управлению, под одним именем, которое отражало бы их методологическое единство. Это единство зиждется на статистической идее информации как функции вероятности. Если новая информация превращает набор случайных событий, имеющий первоначальную общую вероятность P, в набор с общей вероятностью p, то это означает, что информация имеет такую же природу и меру, как и энтропия в статистической механике, но противоположный знак. (Дело в том, что энтропия стремится к максимуму при росте неопределенности случайной величины, тогда как информация ведет себя противоположным образом.) При таком подходе теория информации становится ветвью статистической механики, и второй закон термодинамики принимает, с точки зрения теории информации, следующую форму: любая обработка информации от известных источников может только уменьшать численную меру информации. Это, конечно, не означает, что обработка не дает никаких преимуществ или что обрабатывать информацию нецелесообразно. Важно то, что во внимание принимается вся информация, а способ ее обработки не должен налагать на нее каких-либо ограничений.
Статистическая концепция информации уже доказала свою пользу в технике связи, анализе проблем кодирования и, до некоторой степени, в исследовании функционирования нервной системы. См. также АВТОМАТИЗАЦИЯ; ИНТЕЛЛЕКТ ИСКУССТВЕННЫЙ.