из истории теории информации
Наконец-то добрался до "Криптономикона" Стивенсона. Помню,
ygam сетовал на многочисленные анахронизмы в книге -- типа, уже в 1941-м году идет речь о теории информации, информационных каналах и т.д., хотя первая работа Шеннона на эту тему вышла только в 1948-м году. На самом деле, все не так просто. Дело в том, что Шеннон интересовался вопросами передачи информации по каналам с помехами еще до начала войны и был подробно знаком с работой Хартли 1928-го года, где впервые появились термины вроде "rate of communication", "intersymbol interference", "capacity of a system to transmit information", как и, собственно, сама идея измерять количество информации логарифмом числа возможных сообщений. Вот что говорится в крайне познавательном обзоре S. Verdú, "Fifty Years of Shannon Theory," IEEE Trans. Information Theory, Special Commemorative Issue, vol. 44, no. 6, pp. 2057-2078, Oct. 1998 (PDF):
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
Probabilistic modeling of information sources has in fact a very long history as a result of its usefulness in cryptography. As early as 1380 and 1658, tables of frequencies of letters and pairs of letters, respectively, had been compiled for the purpose of decrypting secret messages. At the conclusion of his WWII work on cryptography, Shannon prepared a classified report where he included several of the notions (including entropy and the phrase “information theory”) pioneered in [his 1948 article]. However, Shannon had started his work on information theory (and, in particular, on probabilistic modeling of information sources) well before his involvement with cryptography. Having read Hartley’s paper in his undergraduate days, Shannon, as a twenty-two-year-old graduate student at MIT, came up with a ground-breaking abstraction of the communication process subject to a mean-square fidelity criterion. After writing his landmark Master’s thesis on the application of Boole’s algebra to switching circuits and his Ph.D. dissertation on population dynamics, Shannon returned to communication theory upon joining the Institute for Advanced Study at Princeton and, then, Bell Laboratories in 1941.Так что в предположении, что Лоренс Уотерхауз, Алан Тьюринг и Рудольф фон Хакльхебер вполне могли встретиться с Шенноном в Принстоне и таким образом познакомиться с теоретико-информационными идеями уже в начале сороковых годов, в принципе сильных натяжек нет. Было бы намного интереснее, конечно, если б Стивенсон "вписал" и Шеннона в книгу качестве одного из персонажей, пусть даже второстепенного.
no subject
no subject
no subject