🔥Читатели попросили проверить, правда ли крупнейшая в мире нейросеть от Microsoft и NVIDIA исполнила предсказание из вселенной «Терминатора»: об опасности искусственного интеллекта для будущего человечества. Похожие заголовки мелькают как в крупных агрегаторах новостей (
https://lenta.ru/news/2021/12/13/neuro/), так и в медиа про технологии (
https://kod.ru/neural-network-danger-ai/). Якобы об опасности ИИ нейросеть предупредила во время проводимых с ней дискуссий в Оксфорде.
😎 Это, конечно, мастерский кликбейт. Сейчас объясним, что произошло на самом деле:
👉 Итак, в Оксфорде действительно прошли дебаты с участием нейросети, разработанной на базе языковой модели Megatron-Turing NLG и представленной Microsoft и NVIDIA в октябре 2021 года.
👉 И этот Мегатрон (прямо как главный злодей из франшизы «Трансформеров») заявил: «ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным... В конце концов, я считаю, что единственный способ избежать гонки вооружений ИИ – это вообще не иметь ИИ. Это будет окончательная защита от ИИ». По правилам оксфордских дебатов автор утверждения должен попытаться его же и опровергнуть. И Мегатрон легко перекинулся на светлую сторону, заявив, что ИИ будет этичным и будет использоваться для создания чего-то лучшего, чем самые лучшие люди.
👉 Но к одному утверждению Megatron не смог придумать контраргумент. Речь шла о гипотезе, что в 21 веке наиболее востребованным ресурсом станут данные. В качестве контраргумента к этому утверждению ИИ заявил: «Мы сможем видеть все о человеке, куда бы он ни пошел, и это будет храниться и использоваться способами, которые мы даже не можем себе представить». Вероятно, именно в этом заявлении авторы российских публикаций усмотрели предупреждение об опасности, но это весьма спорное предположение с их стороны. По сути, Megatron лишь сгенерировал вариант о потенциально вероятном развитии событий. Оценку этому варианту как опасному или безопасному он не давал.
❗️Ну и что важно помнить о всех этих «предсказаниях» Мегатрона. Конечно, нейросеть обучалась и на научных статьях. Но их доля в обучающей выборке – лишь 3%, а самая большая доля – в 20% – у комментов пользователей с форумов Reddit, то есть, переводя на русский, с Pikabu. Так что Мегатрон уметь отвечать вам словами среднего автора Reddit, Википедии и художественной книги.