Човештвото сé повеќе се надева дека компјутерите ќе му ги исперат… каките, а така е и со расизмот, сексизмот и другите човечки багови. Некои одат до таму што сметаат дека целата контрола врз општеството, распределбата на ресурсите и политиката треба да им се предаде на компјутерите, тргнувајќи од претпоставката дека машините ќе ги третираат сите луѓе исто и ќе немаат пристрасност кон овие или оние.
Е арно ама, Џеки Алсин е жив пример за тоа дека и компјутерите знаат да уплескаат. Алсин е црнкиња што била на концерт и се сликала со неколку пријатели. Подоцна ги качила сликите на Google Photos, сервис кој меѓу другото и ги зачувува и автоматски ги организира сликите. Организацијата подразбира групирање на слики од одреден пријател/човек, слики од кучиња, мачки итн. Во случајов, алгоритамот на Гугл ги измешал работиве и означил еден од афро-американски пријатели на Алсин како животно; Алсин одбива да каже кое, ама ние претпоставуваме дека се работи за мајмун (затоа што нема да е прв случај).
Туку не бегајте, почекајте: не се работи за уште една приказна за дискриминација на црнците и завери од типот дека луѓето од Гугл намерно така го програмирале или дека нема доволно вработени програмери од црна раса (што е токму теоријата на Алсин); во меѓувреме Гугл се извини и рече дека го тестирал продуктот на вработени од сите раси, но дека технологијата е во раните денови и дека сé уште работат на тоа да ја подобрат.
Е тоа е нашиот интерес: Како алгоритамот може да згреши и како ние му помагаме во тоа?
Случката со Алсин е една од многуте чудни пристрасности што редовно се појавуваат кај комјутерските алгоритми кои чешлаат тони и тони информации во потрага по шеми и шаблони. Овие алгоритми се сé уште во фаза на учење, а учат – погодете од кого – од корисниците.
Секој од нас секојдневно се сретнува со препораките на алгоритмите на Youtube, Amazon, IMDB, Netflix, од типот „ако ти се допаѓа овој производ, веројатно ќе ти се допаѓа и овој“, „ако ти се допаѓа Терминатор веројатно ти се допаѓа и Ex-Machina“ итн. Алгоритамот го учи ова со текот на времето, анализирајќи го, на пример, бројот на луѓе што го „лајкнале“ Терминатор и потоа го лајкнале Ex-Machina. Имајќи го тоа во предвид, фидбекот од корисниците и тоа како знае да ги зацврсти општествените дискриминаторски пристрасности.
Пред неколку години, една студија на Харвард покажа дека кога некој на Гугл ќе пребараше име не некој црнец, поголеми беа шансите од страна да му се појави реклама за компанија што наоѓа криминални досиеја. Веројатно алгоритамот го правел истото и за белите и за црните пребарувачи, но со тек на време, расистичките тенденции на дел од луѓето што пребаруваат веројатно влегуваат во игра; на пример, некој што мисли дека црнците се предодредени за криминал има поголеми шанси да кликне на рекламата за досиеја, што пак алгоритмот го бележи како фидбек и потоа ја прикажува истата реклама уште почесто при пребарувањето на имиња на луѓе со темен тен.
Други студии исто така покажуваат дека кога пребаруваат жени, има поголема шанса да им бидат прикажани онлајн реклами за помалку платени работи, отколку за мажите. Сорел Фридлер, професор по компјутерска наука на Хаверфорд, вели дека жените можат да ја засилат оваа дискриминација и без да бидат свесни.
„Веројатно жените навистина помалку кликнуваат на тие реклами, а тоа е веројатно заради долгата историја на тоа жените да заработуваат помалку од мажите“, вели таа. „Веројатно жените си мислат ‘Ох, оваа реклама сигурно не е за мене. Немам шанси да ја добијам таа работа’…“
Па така, алгоритамот одлучува дека веќе не треба да им ги покажува тие реклами на жените, бидејќи жените не ги кликаат.
Тоа што ги загрижува Фридлер и другите компјутерски научници и социолози, е што алгоритмите се користат во сé поголем број области и на сé повеќе начини. На пример, Пенсилванија ја тестира идејата алгоритми да ја предложуваат казната за овој или оној затвореник/криминал. Некои компании, пак, ги користат за да го стеснат изборот на апликанти за работа. Тоа значи дека е сé потешко да се одбранат алгоритмите од дискриминаторските погледи на корисниците.
„Системите се толку комплексни што можно е да се рече дека алгоритмот го прави тоа“, вели Кристијан Сендвиг – професор на универзитетот во Мичиген. „И тоа е всушност вистина – алгоритмот е доволно комплициран и се менува во реално време. Пишува свои правила врз основа на информациите и инпутот и прави нешта кои често знаат да нé изненадат“.
Сендвиг, конкретно, сепак е оптимист. Тој смета дека „дискриминаторските алгоритми“ ќе бидат поправени и дека ќе научат да се бранат од пристрасност. Така, веќе постојат апликации со конкретна намена да ја чуваат дискриминацијата настрана од процесот на вработување. Сепак, и Сендвиг, и другите, се сложуваат дека мора да се зборува и да се работи на проблемот, бидејќи ако ние луѓето не го решиме, машините нема да можат тоа да го направат сами.
Од овој аспект, јасно е дека алгоритмите/машините имаат уште многу да учат од луѓето, а со тоа и да ги наследуваат нивните маани. Вака изгледа дека никогаш нема да дочекаме таква утопистичка вештачка интелигенција, која наместо нас ќе го избере реално најдобриот премиер или претседател, на пример, или пак ќе го организа општественото уредување така што да биде фер за сите. Но, ќе видиме. Низ историјата, најголемите напредоци се случувале во скокови, а не постепено.