Это зависит от кодировки, т.е. тем как мы представляем текст в виде последовательности байт.
Можно проверить с помощью любого языка программирования, который позволяет менять кодировку строки(либо написать самостоятельно).
Нужно задать кодировку, получить представление в байтах, затем умножить количество байт на количество бит в байте(8 в архитектурах x86/amd64).
Например, в консоли языка Ruby это очень просто:
irb(main):026:0> 'Александр'.encode("cp1251").bytes.length*8
=> 72
irb(main):027:0> 'Александр'.encode("utf-8").bytes.length*8
=> 144
irb(main):028:0> 'Александр'.encode("utf-16").bytes.length*8
=> 160
Три различных кодировки, три различных результата.
А это в какой кодировке записать. В однобайтовой (Windows-1251, КОИ-8) 72 бита, в двубайтовой (Unicode) – 144. Если подойти формально, выкинуть букву ё и регистр букв, то каждая буква русского языка будет занимать 5 бит, тогда это слово займёт 45 бит.
если мне не изменяет память и знание программирования, то слово "Александр" займет в памяти вычислительной машины где-то 72 БИТА. Но не уверен на 100%