Американский ученый Том Маккарти утверждает, что с развитием нанотехнологий будет снижаться экономическое влияние на мировую политику отдельных государств. И связано это с тем, что в ходе военных действий будет уничтожаться живая сила, а не военная техника или промышленные предприятия. И по оценкам экспертов, такая ситуация возникнет уже в 2025–2030 годах.
Безусловно, мировое сообщество не оставило без внимания нанотехнологии. Особенно много о них говорится и пишется в последнее время. При этом, высоко оценивая успехи этого направления научного и практического поиска, одновременно высказывается и ряд опасений, особенно в связи с изобретениями в военной сфере. Понимают опасность неконтролируемого развития нанотехнологий и руководители большинства государств. Поэтому и создаются различные международные организации, в обязанности которых входит контроль над нанотехнологиями.
Так, с 2005 года функционирует международная рабочая группа, изучающая социальные последствия развития нанотехнологий. В 2008 году учреждена международная организация, которая должна разработать методики для определения воздействия наноматериалов на живые организмы.
Проблема искусственного интеллекта
В ответах на вопрос – можно ли создать искусственный интеллект? – присутствует две противоположные точки зрения: «да» и «нет». Причем каждая из сторон вроде бы с убедительными аргументами на руках доказывает свою правоту.
Однако, прежде чем говорить о конструировании искусственного интеллекта, необходимо как минимум выяснить, что понимают под этим термином ученые. Существует немало определений этого понятия.
Так, в одном из них искусственным интеллектом (ИИ) называется «условное обозначение кибернетических систем, моделирующих некоторые стороны интеллектуальной деятельности человека – логическое, аналитическое мышление». То есть, иначе говоря, искусственный интеллект – это рукотворная модель человеческого мозга, способного к мыслительной деятельности. А, учитывая многочисленные факты из истории науки и техники, когда в течение очень короткого времени появлялись изобретения, о которых люди лишь мечтали (например, телевидение, компьютеры, Интернет, мобильная связь и т. д.), можно предположить, что появление искусственного интеллекта тоже вполне вероятно.
Косвенно о возможности создания ИИ говорит и тот факт, что порой практика опровергает предположения выдающихся людей. В 1933 году знаменитый английский физик Эрнст Резерфорд заявил, что никогда не удастся извлечь энергию из атома: «Любой, кто искал источник энергии в трансформации атомов, говорил вздор». В те времена требовались дни и недели работы, чтобы расщепить небольшое количество ядер. А спустя чуть больше десяти лет взрыв атомной бомбы опроверг прогнозы великого Резерфорда.
Вот тут-то и возникает достаточно серьезная проблема: а вдруг искусственный интеллект в какой-то момент по мыслительной мощи превзойдет человека, а затем, используя свои невероятные способности, начнет действовать ему в ущерб?
Следует сразу заметить, что этот вопрос начал волновать умы многих людей еще в прошлом веке. И первыми задали его в своих произведениях фантасты. «Эта проблема стала одной из самых популярных в мире научной фантастики в 1920–1930-х годах, когда было написано множество рассказов, темой которых являлись роботы, восставшие и уничтожившие своих создателей», – писал знаменитый американский ученый и писатель Айзек Азимов.
Правда, в проблеме ИИ есть один существенный момент: определение степени интеллектуальности созданного устройства. То есть выяснение, действительно ли оно обладает искусственным интеллектом, или является лишь высокоскоростным компьютером, выполняющим определенные запрограммированные операции?
Чтобы ответить на этот вопрос, ученые придумали немало различных тестов, из которых самым известным является тест Тьюринга: «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Впрочем, если быть более точным, то тест Тьюринга – это больше тест на успешную имитацию интеллекта, чем на сам интеллект.
А теперь, возвращаясь к теме нашей статьи, предположим, что устройство прошло испытание на наличие искусственного интеллекта. Иначе говоря, оно в состоянии ставить перед собой определенные задачи и решать их. А это значит, что в какой-то момент у этого устройства могут появиться цели, которые противоречат человеческим устремлениям. То есть не исключено, что ИИ начнет эволюционировать в сторону такого состояния, в котором у него появится склонность к достижению своих конкретных целей, абсолютно неизвестных человеку. Таким образом, саморазвивающийся искусственный интеллект в какой-то момент может стать реальной угрозой для человечества.