Анатолій Андросюк, Всем Взаимофренд ! (biboroda) wrote,
Анатолій Андросюк, Всем Взаимофренд !
biboroda

Categories:

Самообучающиеся алгоритмы искусственного интеллекта могут быть непредсказуемы





Завораживающий, необъяснимый вид алгоритма - машинное обучение - закрывает правительствам глаза на зачастую катастрофические недостатки технологии.
Четверг, 13 августа 2020 года, запомнится как поворотный момент в отношениях демократии с цифровыми технологиями. Из-за вспышки коронавируса экзамены A-level и GCSE в Великобритании были отменены, оставив органам образования выбор: выставить детям оценки, выставленные их учителями, или использовать алгоритм. Правительство выбрало второй путь.


В результате более одной трети результатов в Англии (35,6%) были занижены на один бал от оценок, выставленных учителями. Это означало, что многие ученики не получили результат, необходимый для поступления в выбранный университет. Что еще более угрожающе, доля учащихся частных школ, получивших оценки A и A *, была более чем в два раза выше, чем доля учащихся в общеобразовательных школах, что подчеркивает грубое неравенство в британской системе образования.
То, что произошло потом, было предсказуемо, но значимо. Многие подростки, понимая, что их жизненные шансы были ограничены компьютерным кодом, вышли на улицы. «К черту алгоритм!» стало популярным слоганом. В свое время, правительство уступило и изменило результаты - но не раньше, чем были вызваны эмоциональные потрясения и административный хаос. А затем премьер-министр Великобритании Борис Джонсон обвинил в фиаско «мутировавший алгоритм», что как и предполагалось, было ложью. Никаких мутаций не произошло. Алгоритм сделал то, что написано в его коде. Единственная мутация была в поведении людей, затронутых его расчетами: они восстали против того, что сделал алгоритм.
Это был настоящий первый и единственный раз, когда алгоритмическое решение было оспорено в ходе публичных протестов, которые были достаточно мощными, чтобы спровоцировать свержение правительства. В мире, который все более и более незаметно регулируется компьютерным кодом, это восстание может выглядеть многообещающим прецедентом. Но, увы, есть несколько веских причин полагать, что вместо этого может быть просто разовый очаг. С одной стороны, меняется природа алгоритмов; углубилось их проникновение в повседневную жизнь; в то же время как оценки алгоритма Ofqual повлияли на жизненные шансы целого поколения молодых людей, влияние доминирующих алгоритмов в нашем нерегулируемом будущем будет ощущаться отдельными людьми персонально, делая коллективные ответы менее вероятными.
Согласно краткому Оксфордскому словарю, слово «алгоритм», означающее «процедура или набор правил для вычислений или решения проблем, в особенности при помощи компьютера», датируется началом 19 века, но только сравнительно недавно он проник в повседневный дискурс. Программирование - это в основном процесс создания новых алгоритмов или адаптации существующих. Например, название первого тома магистерского пятитомника Дональда Кнута «Искусство компьютерного программирования» , опубликованного в 1968 году , - «Фундаментальные алгоритмы». Таким образом, с одной стороны, растущее распространение алгоритмов в наши дни просто отражает повсеместное распространение компьютеров в нашей повседневной жизни, особенно с учетом того, что любой, у кого есть смартфон, также имеет небольшой компьютер.
Ofqual алгоритм , который вызвал фурор на экзаменах является классическим примером этого жанра, в том , что он был детерминированным и понятным. Это была программа, разработанная для решения конкретной задачи: расчета стандартизированных оценок для учеников на основе информации а) от учителей и б) о школах при отсутствии фактических результатов экзаменов. Он был детерминированным в том смысле, что он делал только одно, а логику, которую он реализовал, виды выводов, которые он производил, мог понять и спрогнозировать любой компетентный технический эксперт, которому было разрешено проверить код.
Классические алгоритмы по-прежнему повсюду в коммерции и правительстве. Но они больше не там, где происходит действие.
С начала 1990-х годов - и с появлением Интернета в частности - компьютерные ученые (и их работодатели) стали одержимы новым жанром алгоритмов, которые позволяют машинам учиться на данных. Рост Интернета и интенсивное наблюдение за пользователями, которое стало неотъемлемой частью его доминирующей бизнес-модели - начали производить потоки поведенческих данных, которые можно было использовать для обучения этих новых видов алгоритмов. Так родилась технология машинного обучения (ML), которую часто называют «ИИ», хотя это вводит в заблуждение - ML - это в основном гениальные алгоритмы плюс большие данные.
Алгоритмы машинного обучения радикально отличаются от своих классических предшественников. Последние принимают некоторый ввод и некоторую логику, указанную программистом, а затем обрабатывают ввод для получения вывода. Алгоритмы машинного обучения не зависят от правил, определенных людьми-программистами. Вместо этого они обрабатывают данные в необработанном виде - например, текст, электронные письма, документы, контент социальных сетей, изображения, голос и видео. И вместо того, чтобы быть запрограммированными на выполнение конкретной задачи, они запрограммированы на то, чтобы научиться решать эту задачу самостоятельно. Чаще всего задача состоит в том, чтобы сделать прогноз или что-то классифицировать.
Это подразумевает, что системы машинного обучения могут давать результаты, которые их создатели не могли себе представить. Что, в свою очередь, означает, что такие алгоритмы «не поддаются интерпретации» - их эффективность ограничена текущей неспособностью машин объяснять свои решения и действия пользователям. Следовательно, они не подходят, если необходимо понять отношения или причинно-следственные связи; в основном они хорошо работают там, где нужны только прогнозы. Что, в принципе, должно ограничивать области их применения - хотя на данный момент, как ни прискорбно, этого не происходит.
Машинное обучение - это технология, которую технологические гиганты внедряют во всех своих операциях. Когда босс Google Сундар Пичай заявляет, что Google планирует внедрить «ИИ везде», он имеет в виду «ML везде». Для таких корпораций, как его, технология привлекает множество людей. В конце концов, за последнее десятилетие машинное обучение сделало возможным использование беспилотных автомобилей, практическое распознавание речи, более мощный веб-поиск и даже более глубокое понимание генома человека. И многое другое.
Благодаря своей способности делать прогнозы на основе наблюдений за прошлым поведением, технология машинного обучения уже настолько широко распространена, что большинство из нас сталкивается с ней десятки раз в день, даже не осознавая этого. Когда Netflix или Amazon рассказывают вам об интересных фильмах или товарах, это означает, что ML используется как «механизм рекомендаций». Когда Google предлагает другие поисковые запросы, которые вы могли бы рассмотреть, или Gmail подсказывает, чем может закончиться составленное вами предложение, это работает ML. Когда вы находите неожиданные, но, возможно, интересные сообщения в своей ленте новостей Facebook, они появляются, потому что алгоритм машинного обучения, который «курирует» ленту, узнал о ваших предпочтениях и интересах. То же самое касается вашей ленты Twitter. Когда вы внезапно задаетесь вопросом, как вам удалось потратить полчаса, просматривая ленту Instagram, алгоритм просто подкидывает вам именно те посты, которые вам наиболее интересно просматривать, руководствуясь данными, которые вы сами о себе предоставили.
Технологические компании превозносят эти услуги как неквалифицированные общественные блага. Что может быть не так с технологией, которая узнает, чего хотят ее пользователи, и предоставляет это? И бесплатно? Это бывает довольно часто. Возьмите рекомендательные механизмы. Когда вы смотрите видео на YouTube, вы видите список других видео, которые могут вас заинтересовать, в правой части экрана. Этот список был составлен с помощью алгоритма машинного обучения, который изучил то, что вас интересовало в прошлом, а также знает, сколько времени вы потратили во время этих предыдущих просмотров (используя время, потраченное в качестве прокси для уровня интереса). Никто за пределами YouTube точно не знает, какие критерии использует алгоритм для выбора рекомендуемых видео, но, поскольку это в основном рекламная компания, одним из критериев определенно будет: «Максимальное количество времени, которое зритель проводит на сайте».
В последние годы было много споров о влиянии такой стратегии максимизации. В частности, подталкивает ли он определенных категорий пользователей к все более экстремистскому контенту? Кажется, ответ - да. «То , что мы наблюдаем,» говорит Зейнеп Tufe KCI , известный интернет - ученый «является вычислительная эксплуатация естественного человеческого желания: чтобы выглядеть„за занавесом“, чтобы копнуть глубже то, что нам навязывают. Когда мы кликаем и кликаем, нас увлекает захватывающее ощущение открытия новых секретов и более глубоких истин. YouTube ведет зрителей в кроличью нору экстремизма, в то время как Google увеличивает продажи рекламы».
Что мы также обнаружили с 2016 года, так это то, что микротаргетинг, обеспечиваемый алгоритмами машинного обучения, используемыми компаниями социальных сетей, ослабил или подорвал некоторые институты, от которых зависит функционирующая демократия. Это, например, привело к загрязнению публичной сферы, в которой дезинформация и фейки конкурируют с более точными новостями. И он создал цифровые эхо-камеры и привел людей к вирусным теориям заговора, таким как теория плоской Земли и тому подобное, вредоносному контенту, организованному иностранными державами и внутренними идеологами.
Побочные эффекты машинного обучения в огороженных садах онлайн-платформ достаточно проблематичны, но они становятся положительно патологическими, когда технология используется в офлайновом мире компаниями, правительством, местными властями, полицией, службами здравоохранения и другими государственными органами, принимающими решения, которые влияют на жизнь граждан. Кто какие универсальные льготы должен получать? Чьи страховые взносы должны иметь большой вес? Кому следует отказать во въезде в страну? Чья операция на бедре или удаление опухоли должна быть ускорена? Кому следует брать кредит или ипотеку? Кого следует остановить и обыскать? Чьи дети должны получить место в какой начальной школе? Кто должен получить залог или условно-досрочное освобождение и кому должно быть отказано в этом? Список таких решений, за которые сейчас обычно рекламируются решения для машинного обучения, бесконечен. Причина всегда одна: более эффективное и быстрое обслуживание; суждения, основанные на беспристрастных алгоритмах, а не на предвзятых, усталых или склонных к ошибкам людей; соотношение цены и качества в государственном секторе; и так далее.
Главная проблема этого радужного технологического «решения проблем» - это неизбежные внутренние недостатки технологии. То, как его суждения отражают предвзятость в наборах данных, на которых, например, обучаются системы ИИ, что может сделать технологию усилителем неравенства, расизма или бедности. К тому же его радикальная необъяснимость. Если традиционный алгоритм старого образца отказывает вам в банковской ссуде, его аргументы можно объяснить, изучив правила, заложенные в его компьютерный код. Но когда алгоритм машинного обучения принимает решение, логика его рассуждений может быть непонятна даже для программиста, создавшего систему. Таким образом, внедряя машинное обучение в наше государственное управление, мы эффективно закладываем основы того, о чем предупреждал ученый-юрист Фрэнк Паскуале в своей книге 2016 года.Общество Черного ящика.
Теоретически Общий регламент ЕС по защите данных (GDPR) дает людям право получить объяснение результатов работы алгоритма, хотя некоторые эксперты-юристы сомневаются в практической полезности такого «права». Тем не менее, даже если это действительно окажется полезным, суть в том, что несправедливость, причиняемая системой ИИ, будет ощущаться отдельными людьми, а не сообществами. Единственное, что хорошо умеет машинное обучение, - это «персонализация». Это означает, что публичные протесты против персонализированной бесчеловечности технологии гораздо менее вероятны - вот почему демонстрации в прошлом месяце против работы алгоритма Ofqual могут быть разовыми.
В конце концов, мы должны задать вопрос: почему гадаринское стремление технологической индустрии (и ее сторонников в правительстве) к развертыванию технологий машинного обучения - и особенно его возможностей распознавания лиц - не является серьезной проблемой государственной политики?
Объяснение заключается в том, что в течение нескольких десятилетий правящие элиты в либеральных демократиях были очарованы тем, что можно назвать только «технологической исключительностью», то есть идеей о том, что компании, которые доминируют в отрасли, чем-то отличаются от старых видов монополий, и поэтому должны быть освобождены от критического изучения, которое обычно привлекает консолидированная корпоративная власть.
Единственное утешение заключается в том, что недавние события в США и ЕС предполагают, что, возможно, этот гипнотический регуляторный транс подходит к концу. Поэтому, чтобы ускорить наше выздоровление, может оказаться полезным мысленный эксперимент.
Представьте себе, что было бы, если бы мы предоставили фармацевтической промышленности свободу действий, которую мы сейчас предоставляем технологическим компаниям. Любой умный биохимик, работающий, скажем, на AstraZeneca, мог бы придумать поразительно интересную новую вакцину, скажем, для лечения болезни Альцгеймера. Затем были бы представлены впечатляющие результаты предварительных экспериментов на лабораторном семинаре, после чего компания выпусктила бы ее на рынок. Достаточно вспомнить скандал с талидомидом, чтобы понять, почему подобные вещи не допускаются. Однако именно то, что технологические компании могут делать с алгоритмами, имеет серьезные недостатки для общества.
Эта аналогия предполагает, что мы все еще находимся на той стадии, когда технологические компании были в эпоху патентованных лекарств и змеиного масла. Или, если поместить это в исторические рамки, мы находимся где-то между 1906 годом, когда Конгресс США принял Закон о чистых пищевых продуктах и ​​лекарствах, и 1938 годом, когда Конгресс принял Федеральный закон о пищевых продуктах, лекарствах и косметических средствах, который устанавливал требования для новых препаратов, которые должны демонстрировать безопасность продукции перед продажей. Не пора ли нам двигаться дальше?
Tags: искусственный интеллект
Subscribe

Posts from This Journal “искусственный интеллект” Tag

promo biboroda апрель 18, 2021 08:00 80
Buy for 30 tokens
Сколько лет прошло, но есть то что не забыть.. Года идут и всплывают моменты которые были по жизни, сегодня вспомнил как я прожил тогда 21 год, служил тогда под Москвой. Была возможность пойти в увольнение, но пришли вагоны на станцию, и мои сослуживцы кто не был в наряде, пошли на…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments