Как алгоритмы отравляют жизнь

Вот уже несколько лет в околоайтишных кругах ведётся интереснейший диалог, который всё никак не проложит дорогу к широкой общественности — хоть самым непосредственным образом на судьбы её, общественности, влияет. Объяснить смысл проблемы, а тем более её потенциальные решения, обывателю непросто. Вот только хочет он того или нет, вникать придётся, ибо с каждым годом масштаб последствий увеличивается. Впрочем, простите, что говорю загадками: речь о скрытой роли, которую играют в нашей жизни алгоритмы.

Вообразите самую обычную ситуацию: вы уселись посмотреть кино в онлайновом кинотеатре. И конечно, первое, что видите, запустив приложение на «умном» телевизоре, это список фильмов, которые предположительно должны вам понравиться. Как этот список был составлен? Кинотеатр за время пользования накопил о вас некоторые сведения и теперь делает на их основе предположение-прогноз насчёт ваших вкусов. Например, если в прошлом вы смотрели фильмы ужасов, то и сейчас вам предложат главным образом картины того же жанра. Ну и, конечно, кому-то предложенные ленты понравятся, а кому-то нет. Это нормально. Разработчики алгоритма, угадывающего вкусы зрителя, допускают, что он не всегда окажется прав, но процент «попаданий» оправдывает его применение.

И это лишь один из примеров. Если присмотреться к происходящему вокруг, окажется, что очень и очень многое в нашей жизни определяют или пытаются определять именно алгоритмы. Это они подбирают рекламу, которую вы видите в своём браузере. Они составляют список товаров, которые попадаются на глаза в первую очередь, когда вы заходите в интернет-магазин. Они советуют друзей в социальных сетях. Они на самом деле оценивают заявки на кредит и даже определяют сумму, которой банку в каждом конкретном случае допустимо рискнуть. Они всё чаще фильтруют кандидатов на собеседованиях при приёме на работу. Они помогают полиции «умно» распределять ресурсы, направляя силы туда, где те предположительно будут нужнее всего. Они даже помогли Трампу победить на выборах президента Соединённых Штатов — подсказав, какие слои населения будет легче склонить в свою сторону.

Недостатки такого подхода уже просматриваются, но давайте их формализуем. Что плохого в широком применении алгоритмов для решения чисто жизненных задач? Во-первых, алгоритмы не безгрешны. То, что выглядит как беспристрастная математика, на самом деле всего лишь набор правил, сформулированных человеком или (всё чаще) искусственным интеллектом. Цель алгоритма — не сделать человека счастливым, а решить задачу с приемлемой погрешностью или риском. При этом алгоритм всецело зависит от входных данных (которые по умолчанию не могут содержать всего: это лишь потоки информации, описывающие некоторую часть картины), логики (придуманной программистом и известной зачастую ему одному; если же логика придумана ИИ, то и вообще никому не ясна), вероятностей (слепого случая). Вот почему алгоритмы могут сбоить, выдавая результаты, оторванные от жизни или неприменимые в ней.

Но — и это во-вторых — несмотря ни на что, алгоритмы всё чаще влияют на нашу жизнь сильно. Хорошо если речь всего лишь о странном банере или неудачно рекомендованном фильме: вы посмеётесь над ошибкой программы, неверно определившей ваши предпочтения, и забудете. Но что если речь об отказе в кредите на запуск бизнеса? Или об отказе в приёме на работу? Или, как это уже практикуется в США, о длительности срока заключения, рекомендованном судье? Насколько можно быть уверенным, что алгоритм оценил человека правильно и принял правильное решение?

Алгоритмические ошибки в таких ситуациях уже не теория и не редкость: их обнаруживали и обнаруживают много. Например, в той же судебной практике оказалось, что алгоритм, из-за неверно расставленных акцентов во входных данных, склонен переоценивать риск рецидивизма со стороны темнокожих. Равно и в финансовой сфере клиентам, которым не повезло родиться в «цветной» семье, присваивался несправедливо низкий кредитный рейтинг.

Всё это заставляет задаться вопросом: насколько общество вправе доверять алгоритмам? И ответ на него, к сожалению, непростой и неприятный.

Начать с того, что обратного пути нет. От алгоритмов уже не удастся отказаться, потому что живём мы в информационную эпоху, когда информации слишком много, чтобы её могли обрабатывать только люди. Но значит нужны какие-то ограничения, которые помогли бы минимизировать потенциальный вред. И вот именно вокруг них сейчас и кипит самый жаркий спор.

Где-то алгоритмический рынок пока совершенно дикий: как в России, где у гражданина и потребителя попросту нет права ни оспорить алгоритмическое решение, ни даже узнать, что решение было принято алгоритмом. Но к примеру британцы гордятся тем, что их судебная система резервирует за гражданином право потребовать через суд отменить принятое алгоритмом решение (если оно значительно влияет на жизнь человека) и потребовать повторно обработать те же данные человеком, чтобы исключить возможные машинные огрехи.

Дальше же всех шагнул Евросоюз, в котором с 2018-го года вступает в силу так называемое «право на объяснение». Смысл очень простой, но в этом и коварство. Гражданин ЕС вправе потребовать не просто пересмотреть, а и объяснить, как было принято то или иное алгоритмическое решение. Идея выглядит логичной и даже прогрессивной, но на деле реализовать её будет чрезвычайно трудно. Попробуйте-ка объяснить человеку с улицы процедуру оценки кредитного рейтинга или диагностики рака, проводимой ИИ! А что если алгоритм был разработан не человеком, а машиной — и теперь его не понимает вообще никто? Так что право на объяснение скорее всего останется нереализованным.

Отсюда — мрачный прогноз: мы движемся прямиком к «обществу чёрного ящика», где алгоритмы будут играть всё возрастающую роль, но мы контролировать их всё меньше. И решение напрашивается только одно: законодательно запретить применение алгоритмов в некоторых сферах, где их ошибки могут навредить людям неадекватно сильно. Да, это шаг назад по воображаемой ступени технической эволюции. Но что поделаешь, если компенсировать токсический эффект чрезмерной сложности больше нечем?

Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Postman на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

Читайте также:

новые старые
На почту
Чижиг Пыжэг
Чижиг Пыжэг

Саломай сепе мозк сам))

holyboy
holyboy

Да не. Автор пытался всё разжевать, вот и вышло оченьмногабуков! Так-то, со второго прочтения, всё понятно! 😉

Ванёк26
Ванёк26

>>А что если алгоритм был разработан не человеком, а машиной — и теперь его не понимает вообще никто?

Ну все равно машина разрабатывая алгоритм на что то опирается. Так выдать по запросу все пару миллионов строк размышлений пусть обыватель копается.

Чижиг Пыжэг
Чижиг Пыжэг

..выдать перфокартами.,
иииии

Proper
Proper

Тут как-то уже разбирали ситуацию с гуглевской системой самообучающегося перевода. Внезапно выяснилось, что система научилась довольно прилично переводить с такими парами языков, на которые ее никто не учил.

Нейронная сеть, обучаясь переводить с русского на английский, с английского на немецкий и с немецкого на иврит — внезапно стала переводить прямо с русского на иврит без промежуточных этапов. Ну типа сама нашла закономерности, сопоставляя кросс-переводы.

И в общем-то до конца не понятно, как это произошло. Это квази-нейронная сеть, в ней есть существенные места, не сводимые к жесткой логике и детерминированным алгоритмам. Более того — эти места постоянно эволюционируют, движимые поступающими данными.