Хартли, Ральф
Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации H = K log 2 ( M ) {displaystyle H=Klog _{2}(M)} , которая называется хартлиевским количеством информации или просто мерой Хартли.
Биография
Хартли получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.
Научная деятельность
После возвращения из Англии Хартли присоединился к Научно-исследовательской лаборатории Western Electric и принял участие в создании радиоприёмника для трансатлантических тестов. В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон: «общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи».
Хартли был пионером в области информационной теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации». Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к «точности ... информации» и «количеству информации».
Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.
Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.
Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации продвижения науки. Хартли принадлежат больше чем 70 патентов (изобретений).