Читаем 2062: время машин полностью

Не все наши ценности выражены в юридических формулировках. Даже в тех случаях, когда это так, существует множество законов, которые необходимо нарушить. Например, мы осознаём, что автономные машины не всегда должны следовать правилам дорожного движения. Исследование 2015 года исследовательского института транспорта Мичиганского Университета показало, что автономное вождение имеет показатель в 9,1 аварий на каждый миллион миль и 4,1 аварий для машин, за рулем которых находится человек[70]. Хотя они попадали в большее количество происшествий, виноватыми автономные машины оказывались редко. Вероятно, к этим авариям косвенно привело их слишком буквальное следование закону. Большинство происшествий заключалось в том, что в автономные машины въезжали сзади. Если кто-то въезжает в вас сзади, почти всегда виноваты технически именно они. Однако резкое торможение, чтобы не проехать на желтый свет, скорее всего приведет к такому исходу. Многие водители слегка нарушают закон, например проезжают на желтый или превышают скорость при обгоне. Некоторые из этих правонарушений сокращают количество аварий. Автономным машинам придется учитывать и, может быть, даже совершать эти правонарушения.

Нам также необходимо будет запрограммировать некоторые ценности, которые слабо связаны с существующими законами. К примеру, в правилах дорожного движения не найдешь сведений о водительском этикете или привычках. Означает ли подмигивание фарами то, что другому водителю нужно отъехать с перекрестка? Или то, что впереди опасность? Или что с его машиной что-то не так? Автономным машинам нужно уметь это понимать и производить подобные действия, когда возникнет необходимость. Иногда такие действия будут связаны с трудным этическим выбором.

Проблема вагонетки

Этические дилеммы, связанные с автономными машинами, стали известны как «проблема вагонетки». Классическая задача включает в себя движущуюся вагонетку на рельсах. Вам необходимо принять сложное решение, связанное с жизнью и смертью. Вот как выглядит классический сценарий.

Пять человек привязаны к железнодорожным путям, по которым движется вагонетка. Вы стоите между людьми и вагонеткой, рядом с рычагом. Если за него потянуть, вагонетка съедет на параллельные пути. Все было бы просто, если бы к этим путям не был привязан еще один человек. У вас два варианта: ничего не делать и дать вагонетке убить пятерых или потянуть за рычаг и убить одного человека. Как бы вы поступили?

Существует множество вариаций этой задачи, в которых людей подталкивают на пути, пересаживают органы, чтобы спасти несколько жизней, или заключают людей в тюрьму. Варианты рассматривают этический выбор между действием и бездействием, точным и ожидаемым исходом, между прямыми эффектами и возможными побочными[71]. В интернете вы можете попробовать самостоятельно решить такую задачку. «Моральная машина», разработанная Массачусетским технологическим институтом (МТИ), позволяет это сделать[72]. С ее помощью можно даже придумать собственные этические дилеммы. Цель разработки – узнать общественное мнение о том, как должны поступать машины, когда принимают подобные сложные с этической точки зрения решения.

«Моральная машина» – отличный пример способности медиалаборатории МТИ привлекать общественное внимание. Однако не очень ясно, должны ли мы задавать для машины такие нормы поведения[73]. Даже если «Моральная машина» собрала мнения более миллиона потенциальных палачей, есть множество причин, по которым машинам не стоит усваивать то, что говорят по этому поводу люди. Ответить на вопросы в интернете не то же самое, что вцепиться в руль и умышленно кого-нибудь переехать. Среди опрашиваемых наверняка есть люди, которые намеренно отвечают наоборот; однажды я попробовал узнать, что получится, если мое решение будет подразумевать необязательное убийство других людей. «Моральная машина» не собирает демографическую информацию, а значит, невозможно быть уверенным в том, что участники опроса представляют все слои населения в равных пропорциях. Даже если предположить, что это так или может быть так, хотим ли мы, чтобы машины отражали некое бесформенное среднестатистическое общество?

Есть мнение, что к 2062 году мы должны наделить машины более высокими нравственными стандартами, чем у людей. Потому что мы можем это сделать. Потому что машины могут быть точнее людей. Потому что они могут думать быстрее. Потому что они не повторяют наши ошибки.

Мы уж точно не хотим, чтобы наши предрассудки были запрограммированы. Как раз эти предубеждения и рассматривает «Моральная машина». И наконец, мы должны наделить машины более высокими этическими стандартами, потому что они могут и должны жертвовать собой ради нас.

Корпоративная этика

Корпорации, вероятно, станут одними из тех, кто будет отвечать за нравственность машин. Это окажется непросто, учитывая, что большинство корпораций (особенно технологических) сами не являются образцами морали. Если мы этого не изменим, в 2062 году нас ждут серьезные неприятности.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги

Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет
Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет

Мало кто знает, что в мире существует две формы бессмертия. Первая – та самая, которой пользуемся мы с вами и еще 99% видов планеты Земля, – сохранение ДНК через создание потомства.Вторая – личное бессмертие. К примеру, некоторые черепахи и саламандры, риск смерти которых одинаков вне зависимости от того, сколько им лет. Они, безусловно, могут погибнуть – от зубов хищника или вследствие несчастного случая. Но вот из-за старости… Увольте!Мы привыкли думать, что самая частая причина смерти – это рак или болезни сердца, но это не совсем так. Старение – неизбежное увядание человеческого организма – вот самая распространенная причина смерти. Если с болезнью мы готовы бороться, то процесс старения настолько глубоко укрепился в человеческом опыте, что мы воспринимаем его как неизбежность.Эндрю Стил, научный исследователь, говорит об обратном – старение не является необратимой аксиомой. Автор погружает нас в удивительное путешествие по научной лаборатории: открытия, совершающиеся в ней, способны совершить настоящую революцию в медицине!Как выработать режим, способный предотвратить упадок собственного тела?Эта книга рассказывает о новых достижениях в области биологии старения и дарит надежду на то, что мы с вами уже доживем до «таблетки молодости».В формате PDF A4 сохранен издательский макет книги.

Эндрю Стил

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука