Вольное продолжение темы свободы слова.
Все же понимают, что ИИ – чудовищное зло?
Как, есть сомневающиеся? Тогда мы идем к вам!
С начала 2000-х в системе правосудия США используется risk assessment systems, т. е. механизм, предсказывающий потенциальный рецидив. Изначально они были созданы для изменения динамики повторных преступлений.
Одной из таких систем COMPAS от компании Northpointe успешно пользуются в 14 штатах.
Надо сказать, со своей задачей она справлялась успешно: например, за 10 лет в штате Вирджиния рост числа заключенных снизился с 31% до 5%.
Пару недель назад общественная организация ProPublica опубликовала анализ 7000 дел, расследованных с использованием аморального COMPASа и сделала неутешительные выводы: ИИ-то расист.
Оказывается, как минимум в 2 раза чаще в преступлениях подозреваются чернокожие.
Да, согласно судебным документам афроамериканцы действительно чаще повторно совершают преступления и, да, точность предсказаний системы 76%, НО… всё равно правила нужно менять.
Ранее в 2016-2017 гг.. было опубликовано сразу несколько работ, разоблачающих мифы о «беспристрастности» ИИ. Вы-таки будете поражены, но Science покорно согласился с расовой, гендерной и возрастной дискредитацией исследуемых алгоритмов.
А может ли робот быть «непредвзятым»? Очень хороший вопрос, на самом деле.
Своеобразный математическо-логический ликбез для «журналистов» дан в коротенькой статье Томаса Микони на arXiv.org с говорящим названием: “К слову о невозможности «честности»”.
Краткий и очевидный вывод – есть только два варианта сделать ИИ справедливым, исходя из меняющихся моральных ориентиров:
- сделать его настолько же сложным, как материальная вселенная, т. е. приравнять к Богу;
- исправить общество, на котором проходит обучение ИИ.
И еще непонятно, что более реализуемо.
В общем, хотите быть непредвзятыми – будьте :-)
Пока же речь идет о том, что суды может захлестнуть волна апелляций – адвокаты не дремлют и несколько прецедентов уже создано.
Если отвлечься на минуту от мультикультурализма и посмотреть на проблему немного под другим углом, то понятно – слабое место любого прогресса в невозможности уклонится от вот этого обсуждения «отсутствия морали».
В более-менее свободном обществе технологическое развитие можно попробовать затормозить просто беспрерывно говоря о его потенциальной опасности.
Ни на что другое все эти рассуждения не рассчитаны.
Ответить на это нечего, тем более там, где нет полной верификации механизма принятия машинами решений.
А чем дальше в лес, тем более сложной будет становится доказательная база. В конце концов, сочетание технологий согласно Кларку становится неотличимо от магии.
Поскольку ИИ в том или ином виде применяется везде, начиная от фильтрации постов в соцсетях и поисковых запросов (да, Google тоже не является расово нейтральным) заканчивая управлением активами и интервью при принятии на службу (в последнем случае роботизация идет ударнейшими темпами), то теоретически сейчас можно оспорить любое решение, каким бы структурированным оно не казалось на первый взгляд.
Мир не без добрых идей :-)
https://telegram.me/mikaprok
beorgor
August 21 2017, 20:59:25 UTC 1 year ago