Что лично до меня, то я не философ, я простой физик с примесью социолога, и скажу просто: я - за. В обе стороны. И я был бы счастлив так общаться, могу перечислить, с кем, а если кому-то хочется со мной потом таким способом общаться, я тоже не против. Работайте, компьютерщики, творцы ИИ, создавайте, если успеете, я к вам присоединюсь. Как клиент, пациент и вообще.
Бессмертием я, конечно, лично для себя это считать не могу. Для своих идей - отчасти, для своей работы - в очень большой мере. А для своей личности, для коннектома? Я - это не только писание книжек и преподавание. Теперь, когда в моей жизни нет подземной черноты, не пробиваемой фонарем и разворачивающейся туда с шорохом лесенки, нет ослепительного сияния ледника днем и светящихся палаток в ночи... есть еще и проснутся там, где заснул, с теми же пятнами на протекшем когда-то потолке, с тем же твоим теплом рядом. Вот если когда-то все это наука незаметно для меня ночью втихаря реализует, то, конечно, тогда да...
Что касается ИИ и роботов, то некоторые авторы эти вещи не вполне разделяют, а зря. ИИ может быть встроен в робота, а может жить в компьютере или вообще в сети. Робот может быть и без ИИ, и с ним, и это психологически важная тема. Что же касается качества их работы, то мы по умолчанию считаем, что качество оценивает человек. Это не обязательно так, возможны более хитрые ситуации. Программа может работать не "на человека", а на другую программу или на устройство, действующее автономно. Например, мы отправляем автономный аппарат к близкой звезде (не к Солнцу). При подлете он должен выпустить зонды, которые обследуют эту систему, а сам полететь дальше. Нам нужна программа, которая определит траекторию облета нашими зондами этой не Солнечной системы. Такая программа должна учитывать много разных факторов, в честности, данные о планетах и об их спутниках, уже полученные при приближении аппарата ко всей этой системе. Программа, которая изучала эти планеты, передает свои данные программе, которая определяет облет зондами системы, а та передает данные автономному аппарату. И человек никогда не увидит результата работы этих программ. А тестировать он мог их сто лет назад и только на своей Солнечной системе, а это не совсем то.
Другой вариант, вроде бы, более прост - человек, который смотрит на результаты работы программы, есть. Но он не вполне уверен в своем понимании качества решения. Такая ситуация бывает при общении людей - я вижу, как решает некую задачу мой коллега, но не уверен, что правильно оцениваю его решение. Например, мое решение мне нравится больше, но уверенно сказать, что он ошибается, я не могу. По мере приближения, в любом смысле, ИИ к ЕИ, эта ситуация непременно возникнет.
Другая сложность - отношение человека к надежности. Автомобиль наедет на пешехода, промышленный робот, неловко развернувшись, заденет мастера В. В. Пупкина по уху - и вангогом дело может не обойтись. Дело не только в неисправностях, возможны сложные ситуации, причем даже такие, когда придется решать, кого защищать - своих пассажиров или других, их или пешехода, да и кого из пешеходов... Необходимость как-то сформулировать этические предпочтения побудила людей их исследовать, нашлись интересные корреляции с полом и возрастом, выяснились, что эти предпочтения разные в разных регионах (спросите Сеть "моральные проблемы беспилотных автомобилей"). Но это наука, а борцы с нашествием роботов вполне могут пойти на провокации - надеясь, что пострадает железка, а они сдерут миллион за моральный ущерб (а может ли быть моральный ущерб у аморального человека?) Психология многих людей такова, что они предпочтут, чтобы давил автомобиль с пьяной дрянью за рулем, чем со в сто раз меньшей вероятностью - робот. Наверное, психологи могут объяснить, почему это так, но знают ли они, как это изменить? Ведь из-за этого иррационального мышления тормозится внедрение беспилотных автомобилей, а замена лишь одного процента всех автомобилей беспилотными будет спасать десять тысяч жизней ежегодно.
Во всех публикациях по теме ИИ явно или неявно проводится мысль, что он должен быть идеален. Но если он будет ошибаться, скажем, хотя бы вдвое реже, чем человек, то игра уже стоит не только свеч, но и инвестиций. Или вот - в некоторых странах каждый понимает, чем кончится попытка объяснить неправомерность претензий представителю силовых структур на улице. Робот, несущий полицейские функции, наверняка будет запрограммирован иначе - потому, что это может быть проверено независимо. Заметим, что проверяемая программная ограниченность роботов-полицейских как раз и может исключить их появление в некоторых странах. Хотя... ну да, проверки можно запретить или, еще лучше, фальсифицировать.