Архив за етикет: Google

Как хората могат да управляват своите алгоритмични господари?

Хората постепенно са принудени да признаят огромното влияние, което изкуственият интелект ще има върху обществото. Трябва обаче да мислим повече как да се направи така, че това влияние да бъде контролирано от хората, чиито живот ще се промени.

Google ни казва в какво да вярваме. Facebook ни казва какво е новина. Безброй други алгоритми позволяват човешки контрол и преценка по начини, които не винаги са очевидни или добри. Както Лари Съмърс наскоро отбеляза, само въздействието върху работните места би могло да бъде по-голямо от това на търговските споразумения.

Кой ще следи алгоритмите, за да сме сигурни, че те действат в интерес на хората? Заседание на Конгреса на САЩ през миналата седмица, посветено на изслушване за използваните от ФБР на технологии за разпознаване на лица при водене на криминални разследвания, показа колко силно се нуждае от отговори този въпрос. Както съобщава Гардиън, ФБР събира и анализира изображения на хора без тяхно знание и с недостатъчно информация за това, доколко технологията е наистина надеждна. Предварителни данни изглежда сочат, че технологията е особено погрешна за чернокожите, които са непропорционално голяма цел на системата.

Face-Detection-FBI
ФБР събира и анализира изображения на хора без тяхно знание

Накратко, хората се държат на тъмно по въпроса колко широко се използва изкуствен интелект, степента, в която това ги засяга и начините, по които използването на изкуствен интелект може да бъде опорочено.

Това е неприемливо. Най-малкото, някаква основна информация за всеки алгоритъм който се смята за достатъчно мощен, трябва да бъде направена публично достояние. Ето някои идеи за това какво може да изисква един минимален стандарт:

* Обхват. Чии данни се събират, как и защо? Колко надеждни са тези данни? Какви недостатъци и пропуски са известни?

* Въздействието. Как алгоритъмът обработва данните? Как се използват резултатите от неговите решения?

* Точност. Колко често алгоритъмът прави грешки – да кажем, погрешно идентифицирайки хора като престъпници или пропускайки да идентифицира престъпници? Какво е разпределението на грешките по раса и пол?

Такава отговорност е особено важна за правителствени организации, които имат правомощия да ограничават нашата свобода. Ако техните действия са непрозрачни и безотговорни, ние рискуваме да дадем нашите права на една дефектна машина. Помислете, например, нарастващото използване на „точки за риск от престъпления“ при вземането на решения за освобождаване под гаранция, осъждане и предсрочно освобождаване. В зависимост от данните и използвания алгоритъм, такива резултати могат да бъдат толкова предубедени, колкото е всеки човешки съдия.

Прозрачността, обаче, е само отправна точка. Тя няма да ни каже какво да правим, ако черните систематично получават тежки присъди или ако бедни хора автоматично биват заподозрени като престъпници. В най-добрия случай, прозрачността може да стимулира политически и морален разговор с дизайнерите на алгоритмите, или между членове на Конгреса – разговор, който ще ни накара да преразгледаме нашите най-основни представи за справедливост и свобода.

Този текст не отразява непременно мнението на редколегията или Bloomberg LP и неговите собственици.

Преводен материал на Bloomberg LP

За контакт с автора на тази история:
Cathy O’Neil at cathy.oneil@gmail.com

Вярвате ли на Големите данни?

Очакваше се появата на големи бази данни да води до по-точен и рационален свят. Вместо това, те може да ни заведат в блатото на „алтернативните факти.“

Данните не могат да лъжат, но те могат да се тълкуват по начин, който да има същия ефект. Помислете за настойчивото твърдение на президента Доналд Тръмп, че милиони са гласували по измамен начин на изборите през 2016. По някакъв начин това може да се обоснове с данни: през 2012 г. едно проучване установи, че около 2,75 милиона души са се регистрирали да гласуват в две или повече държави. Въпреки, че няма никакви доказателства, че някои от тях са гласували по два пъти, това няма значение за Тръмп или неговите поддръжници.

Тази ловкост едновременно илюстрира и допринася за по-голям проблем: губим доверие в числата, особено в статистиката. Тяхното голямо количество и разнообразие могат да бъдат непоносими.

В скорошен преглед на данните за популярността на Тръмп в Politico например, според деветте анкети делът на одобряващите варира от 36% до 54 процента. Добавете и главоболието, от което мнозина все още страдат поради подвеждащите прогнози за президентските избори, и няма да се учудваме, че хората започват да игнорират данните напълно или просто ги интерпретират в съответствие със своите убеждения.

Аз не знам дали това ще доведе до дълбока криза на демокрацията, но мисля, че е справедливо да се определи поне част от вината на големите данни. Алгоритмите, разработени от компании като Alphabet Inc. и Facebook Inc  позволяват партизански изкривявания при търсене на доказателства. Те оформят нашите онлайн среди не според  истината, а според конкретните данни, които търсим или върху които кликваме. Това може да подкопае нашето разбиране на и доверие към, обективните научни и исторически факти.

Ето един краен пример: Дилан Руф твърди в своя манифест, че е било търсене в Google на „престъпления на черни към бели“.

дилан руф
Дилан Руф със своите жертви, хладнокръвно разстреляни в църкава

 Така се стигна до убийството на девет души в църква в Чарлстън, Южна Каролина през 2015 г. Помислете за тази фраза за търсене. Какви видове текстове ще подхождат идеално на „престъпления не черни спрямо бели“, за разлика от, да речем, „статистика за нивото на престъпността, според расова принадлежност?“ Естествено, Руф получи линкове към расистки уеб сайтове с техни собствени алтернативни факти – точно както търсенето за „кой наистина уби Кенеди“, по-често ще води до конспиративни сайтове.

Когато написах в Google фразата „Беше Хол“, търсачката автоматично допълни „Беше ли Холокостът истински?“ От първите шест резултата от търсенето четири бяха сайтове, отричащи Холокоста.

И това се случва въпреки усилията на Google да намери решение на този проблем още през декември, и аз не съм единствената.

Такова насочване на търсенето се случва дори когато ние не търсим активно. Wall Street Journal, във връзка с изборите, следял във Facebook новинарските емисии за левите и десните. В едните емисии като зло била посочвана Клинтън, в другите – Тръмп. Guardian експериментира разменяйки новинарските емисии за избиратели с различни убеждения – десни новинарски емисии за демократични избиратели, а на републиканските избиратели – леви. Да бъдеш в либералните емисии, казва един републиканец , е „като четене на книга от глупак.“ Различни истории подкрепени от различни видове доказателства, водеха до нарастващо разминаване във вижданията на хората за света. Още по-лошо, опитът да проверите това, което сте видели във Facebook, като отидете в Google може да не помогне – защото зависи от начина, по който формулирате въпроса.

деца пред компютри
Децата свикват от малки да търсят информация предимно в интернет

Въпреки тези проблеми, компаниите за големите данни се опитват да поддържат репутацията си като източници на достоверна информация. В една от последните реклами на Google Home, баща пише на дъщеря си и търси в Google факти за сините китове. Това е представено като един вид удобна енциклопедия, разширяваща надеждните знания  в домакинството, нещо като съвременен еквивалент на кухненският речник. Да се надяваме, че малкото сладурче няма да пита за Холокоста.

Тази колона не отразява непременно мнението на редколегията или Bloomberg LP и неговите собственици.

Преводна статия на Кати О’Нийл

За контакт с автора на тази история:

Cathy O’Neil at cathy.oneil@gmail.com

За контакт с издателя, отговорен за тази история:

Mark Whitehouse at mwhitehouse1@bloomberg.net