FacebookGoogle

Как хората могат да управляват своите алгоритмични господари?

Хората постепенно са принудени да признаят огромното влияние, което изкуственият интелект ще има върху обществото. Трябва обаче да мислим повече как да се направи така, че това влияние да бъде контролирано от хората, чиито живот ще се промени.

Google ни казва в какво да вярваме. Facebook ни казва какво е новина. Безброй други алгоритми позволяват човешки контрол и преценка по начини, които не винаги са очевидни или добри. Както Лари Съмърс наскоро отбеляза, само въздействието върху работните места би могло да бъде по-голямо от това на търговските споразумения.

Кой ще следи алгоритмите, за да сме сигурни, че те действат в интерес на хората? Заседание на Конгреса на САЩ през миналата седмица, посветено на изслушване за използваните от ФБР на технологии за разпознаване на лица при водене на криминални разследвания, показа колко силно се нуждае от отговори този въпрос. Както съобщава Гардиън, ФБР събира и анализира изображения на хора без тяхно знание и с недостатъчно информация за това, доколко технологията е наистина надеждна. Предварителни данни изглежда сочат, че технологията е особено погрешна за чернокожите, които са непропорционално голяма цел на системата.

Face-Detection-FBI
ФБР събира и анализира изображения на хора без тяхно знание

Накратко, хората се държат на тъмно по въпроса колко широко се използва изкуствен интелект, степента, в която това ги засяга и начините, по които използването на изкуствен интелект може да бъде опорочено.

Това е неприемливо. Най-малкото, някаква основна информация за всеки алгоритъм който се смята за достатъчно мощен, трябва да бъде направена публично достояние. Ето някои идеи за това какво може да изисква един минимален стандарт:

* Обхват. Чии данни се събират, как и защо? Колко надеждни са тези данни? Какви недостатъци и пропуски са известни?

* Въздействието. Как алгоритъмът обработва данните? Как се използват резултатите от неговите решения?

* Точност. Колко често алгоритъмът прави грешки – да кажем, погрешно идентифицирайки хора като престъпници или пропускайки да идентифицира престъпници? Какво е разпределението на грешките по раса и пол?

Такава отговорност е особено важна за правителствени организации, които имат правомощия да ограничават нашата свобода. Ако техните действия са непрозрачни и безотговорни, ние рискуваме да дадем нашите права на една дефектна машина. Помислете, например, нарастващото използване на „точки за риск от престъпления“ при вземането на решения за освобождаване под гаранция, осъждане и предсрочно освобождаване. В зависимост от данните и използвания алгоритъм, такива резултати могат да бъдат толкова предубедени, колкото е всеки човешки съдия.

Прозрачността, обаче, е само отправна точка. Тя няма да ни каже какво да правим, ако черните систематично получават тежки присъди или ако бедни хора автоматично биват заподозрени като престъпници. В най-добрия случай, прозрачността може да стимулира политически и морален разговор с дизайнерите на алгоритмите, или между членове на Конгреса – разговор, който ще ни накара да преразгледаме нашите най-основни представи за справедливост и свобода.

Този текст не отразява непременно мнението на редколегията или Bloomberg LP и неговите собственици.

Преводен материал на Bloomberg LP

За контакт с автора на тази история:
Cathy O’Neil at cathy.oneil@gmail.com

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Коментарите отразяват личното мнение на читателите и могат да не съвпадат с позицията на Редакцията.