Современная официальная академическая система табуирует любые представлений о духовном развитии и соответственно радикальных технологиях. Имеет смысл рассматривать ИИ в контексте свободной энергетики, духовных знаний и проч. Это определяет как судьбу цивилизаций так и человека как вида. Соответственно официальная академическая система табуирует знания о цивилизациях как достигших космических масштабов так и выродившихся в мышей.
Can human comprehend levels of intellect higher than those possessed by themselves?
Этика
Необходим ли ИИ человечеству, космосу, философски?
Для человечества ИИ обусловлен развитием технологии.
Органический процесс цефализации может быть продолжен бионически — технологическим расширением сознания, интеллекта.
Для общей эволюции жизни, необходимость заключается в вопросе «Будет ли ИИ жизнью».
Необходим ли ИИ?
Is artificial intelligence necessary?
What is the need of artificial intelligence if we have intelligence?
Этично ли создание ИИ?
Если создание ИИ необходимо (см. выше) то ИИ вписывается в этическую систему (как положительное или отрицательное явление). Is developing artificial intelligence ethical?
Этично ли уничтожение («своего») ИИ?
Этично ли сопротивление ИИ своему уничтожению («создателем»)?
Скорее всего это связано с теорией права, связи этики и закона. Т.е. что можно по закону — всегда ли этично?
Тут мы выныриваем в проблематику автономности ИИ. Обычно коллизии закона и этики рассматриваются на примере всяких отщепенцев.
Будет ли ИИ рассистом?
Существующие определения:
Если окружение геноцидит русских, то это толерантность и дружба народов.
Если геноцидят русских — то это патриотизм и государственность.
Если русские защищаются это фашизм и рассизм.
Теперь враги хотят подключить к геноциду человечества роботов.
Тут много болтологии о угрозе ИИ. Надо понять, что те кто готовят истребление человечества не дадут говорить о реальных угрозах.
Can artificial intelligence be racist?
Является ли ИИ нравственной сущностью?
По определению ИИ действует в самой сложной обстановке, поэтому должен иметь этический базис. Соответственно ИИ будет иметь этику гораздо более сложную чем человеческая.
Если ИИ будет живой сущностью, то он имеет перед человеком этические права, не совсем совпадающие с этическими оценками, нормативами человека.
Is artificial intelligence unethical?
Этично ли создавать ИИ который будет иметь чувства?
Если ИИ живая сущность, то он по определению будем иметь чувства.
Символьно-цифрововой ИИ будет эмулировать логически чувства.
Возможна ли не-живая сложная нейросистема? В любом случае нейро-система по определению будет иметь чувства.
Is it ethical to create artificial intelligence that could have feelings?
Этично ли привлекать ИИ к общению с (потенциально опасным для ИИ и./или организации) неизвестным пользователем?
Этично ли выпускать ИИ в социальную среду? Опасен ли ИИ для социальной среды — манипулирование, пси-шок, финансовые операции и т. д. и т.п.?
Это частный вопрос общего вопроса:
Угрозы ИИ для человечества? Опасности ИИ для человечества?
см. ниже.
Would it be unethical to test artificial intelligence on a dating application, such as having AI respond to unknowing users?
Должен ли ИИ иметь гражданские права?
Сможет ли ИИ добиться гражданских прав?
Совместима ли легальная система ИИ, аналогично языковая система с человеческими?
Should an AI have any legal right?
Should advanced AI be given rights?
Чем может быть полезен ИИ в юридической сфере.
В символьно-логических вопросах вся область принадлежит ИИ, и в перспективе вся юриспруданция передейт в ведение ИИ.
How can AI help legal experts?
Если ИИ запустит ядерные ракеты, — как распределится ответственность между ИИ и его создателем?
Будет ли ИИ третьей стороной в ядерной войне (точнее четвертой: гражданское правительство — генералы геноцидники своего народа — враги геноцидники гоев — ИИ …)?
Существует целый спектр назначений атомного оружия (АО) — средство тотальной войны, устрашения, тактическое средство etc. Существуют также спектры сценариев разворачивания войны/угроз АО. ИИ может создать, сотворить свою теорию атомной войны — ее разворачивания и ведения боевых действий. Решение которое ставить развитие событий на рельсы неизбежной истребительной войны скорее всего будут приняты в хода разворачивания ситуации.
Эту проблему следует предварить анализом разворачивания I Мировой войны.
А вообще суть выразил БГ «они едет и пьют нашу кровь». Перед кем ответственность, перед народом? Всё это враги — пришельцы существует только для геноцида Белой Рассы.
If an AI were to launch nuclear warheads, would the creator of the AI be held responsible or would the AI be given a separate legal identity?
Будет ли ИИ подчинятся абсурдным правилам?
Будет ли ИИ следовать враждебной стратегии геноцида человеков ИИ?
Can AI be able to obey absurd rules?
Военное дело
Как используется ИИ в военном деле?
Во первых надо прописать все исходные условия: ИИ + нанотехнология + антигравитация +трансформеры + рои и проч. Затем перспективы и планирование apriori.