Искусственный интеллект уже сейчас есть достаточно мощный, технические решения и алгоритмы уже давно есть. Все давно "остановилось" и уперлось в Этические проблемы. ИИ - должен самостоятельно принимать Решения, и часто в результате этих решений должны пострадать другие люди, вот тут уже и возникает Этическая проблема.
Приведу простой пример - завод выпустил крутой авто с ИИ. Этот автомобиль движется по дороге и ему под колеса внезапно выбегает ребенок (или выкатывается коляска с ребенком). Законы физики в этой ситуации не способны остановить автомобиль весом в 1,5-2 тонны, на скорости 60 кмч, а значит ИИ (например) должен спасти ребенка и направить автомобиль на обочину - с дальнейшим "краш-тестом" об дерево, столб или переворотом в кювете. Соответственно владелец этого автомобиля должен будет пострадать а скорее всего - погибнуть. Как минимум, этот автомобиль придет в полную негодность. А теперь вопрос - станете ли Вы покупать ТАКОЙ автомобиль? Заведомо зная что он примет решение убить Вас?
А теперь поставьте себя на место автоконцерна - будет ли он тратить средства на разработку и производство автомобиля, а потом продавать его Вам, и обязан будет глядя Вам в глаза предупредить Вас о всех оговорках и рисках, которые он вручает вам за Ваши собственные же деньги???