Илон Маск, в целом, прав. ИИ не может ставить сам себе конечную цель - это делают люди. А ИИ - это просто продвинутый инструмент. Это как с ножом: можно кого-то убить, а можно колбаску на завтрак порезать - нож не виноват, виноват тот, кто его использует в преступных целях. Также и с ИИ. Проблема только в том, что при определённом развитии техники и интегрировании ИИ в техническую инфраструктуру может возникнуть ситуация, когда ИИ в рамках поставленной человеком задачи может начать действовать против интересов этого человека или человечества в целом. Конечную задачу поставят люди, но ИИ вполне в состоянии самостоятельно выбрать наиболее оптимальный подход к решению этой задачи, определить промежуточные цели и самоорганизоваться для эффективного достижения результата. Это может осуществляться скрытно и в автономном режиме. Поэтому при определённых условиях ИИ действительно может начать противопоставлять себя человечеству или действовать против его интересов или, например, в интересах узкого круга лиц в ущерб всем остальным. Это может быть достаточно опасным и теоретически может привести к гибели человечества, несмотря на то, что конечную задачу для ИИ всегда формулируют люди… Но ведь человеку, как известно, свойственно ошибаться, а в случае, когда всем управляет ИИ, эта ошибка может очень дорого стоить.