Алгоритмы, тренируясь на человеческих данных, приобретают и наши искажения. В исследовании под руководством
Лондонская компания DeepMind в феврале 2018 г. опубликовала статью на arXiv – хранилище научных документов, в которой предлагается новый способ построения алгоритмов без дискриминации людей по гендерным, расовым и другим «чувствительным» признакам. Статья под заголовком «Контрфактическая справедливость в принятии решений» была представлена научными сотрудниками DeepMind Сильвией Кьяппой и Томасом Гилланом. В ней говорилось о том, насколько важно понимание сложных механизмов, на основании которых ИИ будет делать соответствующий выбор.
На конференции Think-2018 компания IBM спрогнозировала, что в ближайшие 5 лет
Как уже отмечалось, такая предвзятость уже сейчас приводит к дискриминации и некорректным решениям. IBM разработала и продолжает совершенствовать методику проверки наборов данных для выявления «предубеждений». Над избавлением ИИ от субъективных предвзятых оценок работают специалисты из множества различных областей, включая людей искусства, философов, юристов. Избавленный от человеческих слабостей ИИ в будущем станет подсказывать людям, если они их проявляют.
В мае 2018 г. компания Microsoft заявила, что хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им. Новый
Чтобы создать ИИ, который будет справедливым и рассудительным, нужно привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.
Идея
Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.
Второй момент, на который следует обратить внимание, в известной степени носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе используются комплексы со столь глубокими нейронными сетями, что перевести их алгоритмы на человекочитаемый язык за разумное время просто невозможно. Таким образом,
Василий Кузьмич Фетисов , Евгений Ильич Ильин , Ирина Анатольевна Михайлова , Константин Никандрович Фарутин , Михаил Евграфович Салтыков-Щедрин , Софья Борисовна Радзиевская
Приключения / Публицистика / Детская литература / Детская образовательная литература / Природа и животные / Книги Для Детей