Сейчас модная тема: нейросети, с которыми можно общаться. Похоже, тест Тьюринга они пройдут без проблем, слишком уж хорошо они научились нас «копировать». Но идея о том, что эти нейросети чувствуют, что у них внутри «не темно», что у них есть эмоции, приходит немногим (но
такие есть)
Можем ли мы так утверждать, лишь на основании внешних признаков? Можно ли считать, что робот чувствует, как человек, если он разговаривает и ведёт себя, как человек?
Я не знаю, как устроены алгоритмы этих нейросетей, так что, возможно, что-то «пересечётся» с моими дальнейшими словами. Я предлагаю пофантазировать об ещё более продвинутых роботах: пусть у них есть микрофоны, видеокамеры, пусть они могут перемещаться и исследовать мир. Такой робот как-то нагляднее и привычнее))
Допустим, мы создали робота, который обрабатывает информацию о том, как он обрабатывает информацию. Например, направил камеру на кошку, но обрабатывает информацию не только о кошке, но и о том, что у него куда записалось, как быстро и т.д. Т.е., у него должны быть не только внешние, но и «внутренние» датчики. Трудно объяснить наглядно, на самом деле)
Важно, что робот делает это не обязательно для того, чтобы потом кому-то об этом рассказывать. Может быть, в будущем, робот использует сгенерированную информацию, например, чтобы «рассказать человеку о себе», или для модернизации своего поведения. Но это не обязательно.
Допустим, этот робот направил видеокамеру на кошку, и параллельно генерирует какой-то само-отчёт в стиле: «я вижу кошку, у неё облезлый хвост». И в память его записывает. Допустим, робот дальше делает отчёт об отчёте, например: «в 10 часов я думал от том, что вижу кошку» или «чем отличается рыжий цвет от громкого мяуканья?». И вот он часов 10 так «рефлексирует». Он об этом не говорит, он не проявляет это в поведении. Но в его «голове» какие-то сигналы передаются, что-то куда-то записывается, что-то как-то копируется, перезаписывается. Важно, что у робота такой «внутренний», второго уровня процесс происходит, и это у него в памяти фиксируется.
Так вот, будет ли этого достаточно, чтобы считать, что у робота возник свой «внутренний мир»? Или чего-то не хватает?