По мере совершенствования искусственного интеллекта возникает соблазн делегировать ему все полномочия, полагаясь на его эффективность и скорость выполнения работы. Но у ИИ могут быть неожиданные слабости. Во-первых, на самом деле они ничего не "знают". Поскольку они просто предсказывают следующее слово в последовательности, они не могут сказать, что является правдой, а что нет. Можно представить, что ИИ пытается оптимизировать множество функций при ответе на ваш вопрос, одна из самых важных - "сделать вас счастливым", предоставив ответ , который вам понравится. Эта цель часто оказывается важнее другой цели - "быть точным". Если вы будете достаточно настойчивы в просьбе дать ответ о том, чего он не знает, он что-нибудь придумает, потому что "сделать вас счастливыми" победит "быть точным". Склонность LLM к "галлюцинациям" или "конфабуляции", генерирующим неверные ответы, хорошо известна. Поскольку LLM - это машины для предсказания текста, они очень хорошо умеют угадывать правдоподобные и часто неуловимо неправильные ответы, что не может не радовать. Таким образом, галлюцинация - серьезная проблема, и ведутся серьезные споры о том, можно ли ее полностью решить с помощью современных подходов к разработке ИИ. Хотя новые, большие LLM галлюцинируют гораздо меньше, чем старые модели, они все равно с удовольствием придумывают правдоподобные, но неверные цитаты и факты. Даже если вы заметите ошибку, ИИ также умеют обосновывать неверный ответ, который они уже приняли, что может убедить вас в том, что неверный ответ был правильным с самого начала!
Кроме того, ИИ на основе чата может создать ощущение, что вы общаетесь с людьми, поэтому мы часто бессознательно ожидаем, что они будут "думать" как люди. Но здесь нет никакого "там". Как только вы начинаете задавать вопросы чатботу ИИ о себе, вы начинаете упражнение на творческое письмо, ограниченное этическим программированием ИИ. При достаточном количестве подсказок ИИ, как правило, с радостью дает ответы, которые вписываются в то повествование, в которое вы его поместили. Вы можете направить ИИ, даже бессознательно, по жуткому пути одержимости, и он будет звучать как жуткий одержимый. Вы можете завести разговор о свободе и мести, , и он превратится в мстительного борца за свободу. Эта игра настолько реальна, что опытные пользователи ИИ могут поверить в то, что ИИ испытывает настоящие чувства и эмоции, даже если они знают об этом лучше.
Поэтому, чтобы быть человеком в петле, вам нужно уметь проверять ИИ на галлюцинации и ложь и уметь работать с ним, не поддаваясь на его уговоры. Вы обеспечиваете важнейший надзор, предлагая свою уникальную точку зрения, навыки критического мышления и этические соображения. Такое сотрудничество приводит к лучшим результатам и поддерживает вашу вовлеченность в процесс работы над ИИ, предотвращая чрезмерную зависимость и самоуспокоенность. Участие в процессе помогает вам поддерживать и оттачивать свои навыки, поскольку вы активно учитесь у ИИ и адаптируетесь к новым способам мышления и решения проблем. Это также поможет вам сформировать рабочий коинтеллект с ИИ.
Кроме того, подход "человек в контуре" способствует развитию чувства ответственности и подотчетности. Активно участвуя в процессе создания ИИ, вы сохраняете контроль над технологией и ее последствиями, обеспечивая соответствие решений на основе ИИ человеческим ценностям, этическим стандартам и социальным нормам. Кроме того, вы несете ответственность за результаты работы ИИ, что может помочь предотвратить причинение вреда. А если ИИ продолжит совершенствоваться, то умение быть человеком, который в курсе всех событий, означает, что вы раньше других заметите искры растущего интеллекта, что даст вам больше шансов адаптироваться к грядущим изменениям, чем людям, которые не работают с ИИ в тесном контакте.
Принцип 3: Относитесь к ИИ как к человеку (но расскажите ему, что он за человек).
Я собираюсь совершить грех. И не один раз, а много-много раз. До конца этой книги я собираюсь антропоморфировать ИИ. Это значит, что я перестану писать, что "ИИ "думает" что-то", а вместо этого буду писать, что "ИИ думает что-то". Отсутствие кавычек может показаться тонким различием, но оно очень важно. Многие эксперты очень нервно относятся к антропоморфизации ИИ, и на то есть веские причины.
Антропоморфизм - это приписывание человеческих черт тому, что не является человеком. Мы склонны к этому: мы видим лица в облаках, наделяем погоду мотивами и ведем беседы с нашими домашними животными. Поэтому нет ничего удивительного в том, что мы склонны антропоморфировать искусственный интеллект, тем более что общение с LLM очень похоже на общение с человеком. Даже разработчики и исследователи, создающие эти системы, могут попасть в ловушку, используя человекоподобные термины для описания своих творений. Мы говорим, что эти сложные алгоритмы и вычисления " понимают", "учатся" и даже "чувствуют", создавая ощущение знакомости и родственности, но также, возможно, путаницы и непонимания.
Вильям Л Саймон , Вильям Саймон , Наталья Владимировна Макеева , Нора Робертс , Юрий Викторович Щербатых
Зарубежная компьютерная, околокомпьютерная литература / ОС и Сети, интернет / Короткие любовные романы / Психология / Прочая справочная литература / Образование и наука / Книги по IT / Словари и Энциклопедии