Первый закон робототехники от Айзека Азимова – под вопросом
Технологии искусственного интеллекта все больше используются для решения повседневных задач: алгоритмы помогают в отборе (и увольнении) персонала, анализируют психологическое состояние людей, помогают в принятии решений и борьбе с преступностью. Однако, кроме очевидно положительного влияния на нашу жизнь, может ли развитие этих технологий угрожать правам человека?
Или робот может принимать решения относительно человека и нести ответственность за это решение? Первый закон Айзека Азимова до сих пор актуален? Как технологии ИИ меняют само представление о том, что такое преступление? Что такое «проблема белого человека» (White Guy Problem) и новая дискриминация?
Технологии искусственного интеллекта используются для «прогностической полицейской деятельности», контроля пересечения границ ЕС, найма персонала и производительности работников.
Новые технологии уже сейчас существенно влияют на базовые права и свободы человека. И это влияние будет все усиливаться. Технологии искусственного интеллекта используются для «прогностической полицейской деятельности», контроля пересечения границ ЕС, найма персонала и производительности работников. Применение искусственного интеллекта во многих сферах приводит к возникновению «новой дискриминации».
Если до сих пор нарушения прав человека касались так или иначе взаимодействия между людьми и регулировались национальным или международным законодательством, то с развитием искусственного интеллекта появляется еще одна плоскость взаимодействия – человек-машина. Коммуникация происходит между человеком и алгоритмом без участия других людей, и именно алгоритм сейчас может принимать те или другие решения: от чатбота, что будет предлагать лучшие варианты для путешествия, к работа, что будет решать, пропустить вас через границу, или применить против вас оружие или принять вас на работу.
via GIPHY
Широкой общественности искусственный интеллект может казаться бесстрастным и лишенным стереотипов. Машиной, которая мгновенно анализирует массив данных и, исходя из этого, принимает рациональное и взвешенное решение.
«Главная проблема – в том, что, когда мы смотрим на технологию искусственного интеллекта или другие продвинутые технологии, мы склонны думать, что они решат все наши проблемы. Что им не свойственна предвзятость, присущая человеческим суждением. Но на самом деле все не так просто», – отмечает Джошуа Франко, заместитель директора AmnestyTech в Amnesty International.
Технологии искусственного интеллекта учатся на имеющихся данных, содержащих присутствуют в обществе расовые и гендерные стереотипы, создавая так называемую проблему белого мужчины: искусственный интеллект значительно лучше различает лица белых людей, хуже идентифицируя лицо афроамериканцев и азиатов (ошибочно определяя их как морды животных или людей, примружились). Все потому, что ШИ тренируют преимущественно белые ученые на базе тысяч фото прежде всего белых людей. Это приводит к дискриминации в таких сферах, как полицейские практики, судебные решения или трудоустройства.
Программы распознавания лиц дают точный результат только если вы – белый человек. В других случаях (если вы женщина имеете другой цвет кожи) уровень ошибок системы существенно возрастает.
Так, исследования показывают, что программы распознавания лиц дают точный результат только если вы – белый человек. В других случаях (если вы женщина имеете другой цвет кожи) уровень ошибок системы существенно возрастает. Это показывает, как предубеждения, которые существуют в реальной жизни, отражаются на технологиях. Так поднимается вопрос, какими справедливыми могут быть технологии и может существовать для них какая-то ответственность.
Подтверждение наших предубеждений, который мы будем получать от якобы «беспристрастных» машин, будут лишь усиливать имеющиеся дискриминацию и неравенство.
via GIPHY
В США и Великобритании уже экспериментируют с «прогностической полицейской деятельностью». Этот подход использует имеющуюся информацию о преступлениях прошлого и искусственный интеллект для того, чтобы предсказать преступление: определить вероятность и место его возникновения. Соответственно, полиция может использовать выводы ИИ, чтобы принимать решение, в какие районы отправлять патрули, к кому идти с обыском и кого задерживать.
Технология обещает дать возможность предотвращать преступления еще до того, как они произойдут.
Эта методика встречает много критики, в частности за то, что может усилить предубеждение относительно расовых или религиозных групп, которые уже существуют в обществе. Главная проблема – в надежности данных относительно преступлений, их полноте и расовой предвзятости.
Microsoft отказалась предоставить в распоряжение органов правопорядка в Калифорнии камеры с функцией распознавания лиц, мотивируя это именно риском дополнительной дискриминации определенных категорий населения.
Исследования показывают, что системы распознавания лиц являются необъективными по своей сути, ведь учатся на данных, которые отражают наши предубеждения.
Программное обеспечение, которое дает такие возможности, разрабатывается и продается частными кампаниями: эта индустрия сейчас стоит миллионы долларов и продолжает развиваться.
Проблема подобной дискриминации знакомая и компаниям-разработчикам. Например, Microsoft отказалась предоставить в распоряжение органов правопорядка в Калифорнии камеры с функцией распознавания лиц, мотивируя это именно риском дополнительной дискриминации определенных категорий населения.
Эта проблема обсуждается и в более широкой политической плоскости: Сан Франциско стало не первым местом, что ввело запрет на использование подобных технологий полицией и в целом государственными структурами.
via GIPHY
Долгое время Европейский союз работает над укреплением и обеспечением безопасности своих границ. Увеличение количества беженцев и усиление влияния консервативных политических сил во многих европейских странах сделало контроль границ одним из приоритетов.
В октябре 2018 года ЕС объявил о разработке новой системы для контроля пересечения границы, которая будет опробована в Венгрии, Греции и Латвии. Система IBorderCTRL будет использовать искусственный интеллект, чтобы благодаря анализу мимики человека распознавать, врет ли она о цели своего пересечения границы. Считается, что это облегчит работу пограничников. Окончательное решение о допуске будут принимать работники пограничной службы на основе заключения ШИ.
Из-за того, что нет прозрачности в разработках автоматизированных систем и понимание их функционирования, возникает проблема «черного ящика»: люди не понимают сложный механизм, с помощью которого система выдает тот или иной результат, поэтому не доверяют этому результату.
Технология основана на теории распознавания эмоций. Эта гипотеза достаточно контраверсийная, основное ее положение заключается в том, что возможно проявлять истинные эмоции и чувства человека, анализируя выражение лица. Теория утверждает, что эмоции являются фиксированными, универсальными и одинаковыми у всех людей независимо от культурного контекста. Поэтому изучение выражений лица позволит понять внутренние переживания человека. Несмотря на обещания правительств, что финальное решение будет приниматься пограничниками, фактически будет невозможно проверить, какую роль сыграл ИИ в принятии того или иного решения. Даже больше: сейчас не существует механизмов ответственности для систем ИИ за ошибочное решение.
IBorderCtrl является одним из примеров использования системы распознавания лиц, что, как доказывают исследователи, не выдерживают проверки и используются ненадлежащим образом.
Из-за того, что нет прозрачности в разработках автоматизированных систем и понимание их функционирования, возникает проблема «черного ящика»: люди не понимают сложный механизм, с помощью которого система выдает тот или иной результат, поэтому не доверяют этому результату.
via GIPHY
С развитием технологий меняется характер конфликтов. Сегодня уже существуют полуавтономные машины, дроны, которые активно используются в вооруженных конфликтах. Однако в этом случае решение остается за человеком. Использования опасных роботов уже некоторое время обсуждается в ЕС.
Так, Болгарская государственная компания «Проно» обращалась к Frontex с просьбой разработать систему контроля границ работами, смогут использовать оружие в случае правонарушения и не будут требовать постоянного контроля со стороны персонала.
Фактически предоставление роботам возможности самостоятельно использовать оружие нарушит один из важнейших принципов развития ИИ – работы не должны разрабатываться, чтобы убивать людей или вредить им
Фактически предоставление роботам возможности самостоятельно использовать оружие нарушит один из важнейших принципов развития ИИ – работы не должны разрабатываться, чтобы убивать людей или вредить им. Это один из трех законов робототехники Айзека Азимова. Для подобных систем пока не существует никаких механизмов ответственности.
Реальность использования таких технологий побудила появление глобальной кампании «Остановить роботов-убийц». Опрос общественного мнения, проведенный IpsosMORI в 2017 году в 23 странах, показало, что большинство людей высказались против автономных оружейных систем.
via GIPHY
С развитием технологий и все большим использованием технологий ИИ в повседневной жизни будет меняться и структура рынка труда.
По прогнозам, к 2020 году около 85% клиентских операций будет осуществляться без работников, при поддержке чатботив и технологий самообслуживания. По данным OECD (Organisation for Economic Cooperationand and Development), искусственный интеллект уже соответствует или даже превышает показатели эффективности человека в значительном количестве сфер.
Согласно анализу Оксфордского университета и Всемирного банка, 35% рабочих мест в Великобритании могут быть заменены автоматизацией. В высокоразвитых странах 57% рабочих мест находятся в опасности, в Китае – 77%, а в Эфиопии – 85%. Это произойдет быстро: в недавнем отчете компании по исследованию рынка Forrester сделан вывод, что к 2021 году 6% рабочих мест в США будут автоматизированы.
Использование искусственного интеллекта распространяется в сфере найма на работу и контроля эффективности. Так, алгоритм может определять, кто из работников планирует уволиться, и сообщать об этом даже раньше, чем сам человек примет соответствующее решение.
Эти механизмы подобны «прогнозирующей полицейской деятельности».
Автоматизация производства, с одной стороны, может принести появление новых профессий, но с другой стороны, неизбежно приводит к давлению на рабочие места и изменений в структуре производства.
Развитие ИИ повлияет на общества, увеличив уровень безработицы, разрыв в оплате труда и породит еще большее неравенство. Однако эти изменения не являются заранее определенными, поэтому при продуманном подходе возможно превратить угрозы в возможности.
via GIPHY
ООН отмечает, что развитие ИИ повлияет на общества, увеличив уровень безработицы, разрыв в оплате труда и породит еще большее неравенство. Однако эти изменения не являются заранее определенными, поэтому при продуманном подходе возможно превратить угрозы в возможности.
«Давление на рабочие места в будущем, скорее всего, повредит гендерному равенству. Прогресс в получении равной заработной платы и равного доступа к экономическим возможностям для женщин был болезненно медленным. В мире с меньшим количеством рабочих мест существует реальная опасность того, что мы сведем на нет все предыдущие небольшие достижения» – говорит Шериф Елсаед Али, экс-руководитель отдела технологий и прав человека в Amnesty International.
Эксперт отмечает, что возможности, которые дает искусственный интеллект, является большим соблазном как для правительств, так и для корпораций. То, что сейчас выглядит как упрощение процессов принятия решений, обеспечения безопасности граждан, рационализация рабочего процесса, перерастает в серьезные вызовы для прав и свобод людей.
Эти вызовы не означают, что новые технологии, в частности искусственный интеллект, являются плохими или что нам нужно отказаться от них. Решения, принятые искусственным интеллектом или человеком на основе выводов ИИ, должны быть прозрачными и понятными.
Кроме того, правительства и компании, пользующиеся технологиями ИИ, должны осознавать несовершенство данных, на основе которых технология учится, и заботиться о недопущении дискриминации и нарушений прав человека. Более того, с развитием новых отраслей правовые и политические системы должны очень быстро адаптироваться, иначе они станут нерелевантными в современном мире.