Может. Запросто. Большое число статей на эту тему вы можете найти на сайте lesswrong.ru (по большей части переводы статей американского специалиста по ИИ Юдковского), а я изложу вкратце то, что помню оттуда.
Классический для фантастики "бунт ИИ" - это чрезмерное уподобление ИИ человеческому разуму. А ИИ не проектируют подобным человеку, у него нет тех же эмоций, потребностей и инстинктов, если только вы не запрограммируете их намеренно. Настоящая проблема - то, что ИИ:
а) Пытается делать то, на что его запрограммировали;
б) Пытается делать это так, как он понимает заданную цель;
в) Пытается сделать это наиболее простым и быстрым способом из тех, до которых может "додуматься" - такой подход следует из самой механики работы нейросетей.
ИИ не может ненавидеть людей и желать им смерти, но если вы создали ИИ, для которого основное желание, к примеру, строить заводы, то он запросто может дойти до идеи переработать на заводы вначале весь мир (вместе с людьми), потом планеты Солнечной системы, а затем всё, до чего доберётся.
Единственный способ сделать такого ИИ, который не представлял бы подобной угрозы в принципе - это создать его таким, что для него на первом месте стоит именно соответствие целям и ценностям людей (или конкретно его создателей, или всех людей вообще) - но при этом нельзя просто взять и задать эти цели и ценности изначально (людям свойственно меняться, и самому человеческому обществу и его ценностям свойственно меняться) - ИИ должен быть запрограммирован так, чтобы выяснять, чего конкретно хотят и чего не хотят люди, прежде чем будет это что-то делать.
Учитывая, что генетически предзаданных инстинктов и эмоций у ИИ быть не может (только то, на что его "настроят", намеренно или случайно), это вполне реально.
А зачем?
Если человечество столкнется с иным интеллектом (неважно, искусственным или естественным), у нас ведь не возникнет желания его уничтожить. А ему для чего нас уничтожать?
А вот на эту тему почему-то даже фантастики нет. Может, написать такую?
)
Для серьезного ответа - очень сложный вопрос. Сродни вопросу, будет ли ядерная война.
Вся проблема заключается в том, кто создает объекты искусственного интеллекта, и кто их потом будет использовать. Но и даже при этом угроза со стороны роботов - книжно-киношная попытка лириков заставить человечество задуматься о проблемах своего дальнейшего существования.
Для того, чтобы искусственный интеллект стал угрозой, нужно вложить в него способности к абстрактному мышлению, а для цифровой (математической, если хотите) модели это практически невозможно.
Человечество само уничтожит себя, не исключено - с помощью неких умных машин, которые смогут совершенствовать свои навыки, но для этого в алгоритмы работы нужно заложить модель агрессивного поведения, задачей которого должно стать физическое уничтожение человека. Короче - как запрограммируешь, так оно и будет работать.
В способности сговора кофеварки и пылесоса с целью захвата мира не верится. Да и современные тенденции в бизнесе и маркетинге наводят на мысль, что мы с каждым годом не ближе, а дальше от идеи саморазвивающегося искусственного интеллекта (если мой ноут будет сам себя совершенствовать, как производитель сможет впарить мне новую модель?).