Bota Kate Crawford e Microsoft: IA nuk është as artificiale dhe as inteligjente

Kate Crawford e Microsoft: IA nuk është as artificiale dhe as inteligjente

Nga Zoë Corbyn – The Guardian

Kate Crawford studion implikimet shoqërore dhe politike të inteligjencës artificiale. Ajo është profesore e komunikimit dhe studimeve të shkencës dhe teknologjisë në Universitetin e Kalifornisë Jugore. Ndër studiueset kryesore në Microsoft Research, idetë e saj i ka përmbledhur në librin “Atlasi i inteligjencës artificiale”.

Ju keni shkruar një libër kritik ndaj inteligjencën artificiale, por punoni për një kompani që është ndër liderët në këtë fushë. Thënë metaforikisht, si mund ta fusni katrorin në rreth?

Unë punoj në departamentin kërkimor të Microsoft-it, i cili është një organizatë e veçantë, e ndarë nga zhvillimi i produktit. Në mënyrë të pazakontë, gjatë historisë së saj 30-vjeçare, Microsoft ka punësuar shkencëtarë socialë për të parë në mënyrë kritike se si po ndërtohen teknologjitë. Duke qenë brenda, ne shpesh arrijmë t’i shohim dobësitë para se sistemet të përdoren gjerësisht. Libri im nuk i është nënshtruar ndonjë rishikimi para botimit – Departamenti kërkimor në Microsoft nuk e bën të detyrueshme një gjë të tillë – dhe drejtuesit e laboratorit nuk dalin kundër ngritjes së pyetjeve të vështira, edhe nëse përgjigjet përfshijnë një vlerësim kritik të praktikave aktuale teknologjike.

Cili është qëllimi i librit?

Zakonisht, inteligjenca artificiale na paraqitet si diçka abstrakte dhe jomateriale. Unë doja të tregoja se si është inteligjenca artificiale në një kuptim më të gjerë – kostot e burimeve natyrore, proceset e punës dhe logjika e saj klasifikuese. Për ta parë këtë në proces e sipër, shkova edhe në miniera për të parë nxjerrjen e materialeve nga korja e Tokës dhe një qendër e Amazon për të parë vështirësitë fizike dhe psikologjike të punëtorëve që ishin nën një sistem menaxhimi algoritmik. Shpresa ime është që, duke treguar se si funksionojnë sistemet e inteligjencës artificiale (IA) – duke zbuluar strukturat e prodhimit dhe realitetet materiale – ne do të kemi një llogari më të saktë të ndikimeve, dhe kjo do të ftojë më shumë njerëz në debat. Këto sisteme po lançohen në një mori sektorësh pa rregullimin e nevojshëm, pa dakordësi apo debat demokratik.

Çfarë duhet të dinë njerëzit për mënyrën e prodhimit të produkteve IA?

Ne nuk jemi mësuar të mendojmë për këto sisteme sa i përket kostove mjedisore. Por duke thënë, “Hej, Alexa, më porosit letër higjienike”, thirret në ekzistencën e këtij zinxhiri i nxjerrjes, i cili përshkon të gjithë planetin … Ne kemi një rrugë të gjatë për të bërë para se kjo të jetë teknologjia e gjelbër. Gjithashtu, sistemet mund të duken të automatizuara por kur heqim perden, shohim numër të lartë të fuqisë punëtore me pagë të ulët, nga puna për kategorizimin e të dhënave deri te mundi i pafund i riorganizimit të kutive të Amazon. IA nuk është as artificiale dhe as inteligjente. Është bërë nga burime natyrore dhe janë njerëzit që kryejnë detyrat, ata që i bëjnë sistemet të duken autonome.

Problemet e paragjykimit janë dokumentuar mirë në teknologjinë e inteligjencës artificiale. A mund ta zgjidhin këtë më shumë të dhëna?

Paragjykimi është një term shumë i ngushtë për llojet e problemeve për të cilat po flasim. Kohë pas kohe, ne shohim që këto sisteme prodhojnë gabime – p.sh. fytyrat e njerëzve me ngjyrë u etiketuan gabimisht – dhe përgjigjja ka qenë: “Ne thjesht na duhen më shumë të dhëna”. Por unë jam përpjekur t’i shikoj më thellë këto dhe kam parë forma të diskriminimit, jo vetëm kur zbatohen sistemet, por në mënyrën se si ato janë ndërtuar dhe trajnuar për ta parë botën. Të dhënat e trajnimit të përdorura për softuerin e të mësuarit nga makineritë që kategorizojnë rastësisht njerëzit në vetëm njërën nga dy gjinitë; që i etiketojnë njerëzit sipas ngjyrës së tyre të lëkurës në një nga pesë kategoritë racore dhe që përpiqen, bazuar në pamje, të përcaktojnë karakterin moral ose etik. Ideja që ju mund t’i bëni këto përcaktime bazuar në pamjen e jashtme ka një të kaluar të errët dhe për fat të keq politika e klasifikimit është ndërtuar në substratet e inteligjencës artificiale.

Ju e hidhni poshtë përdorimin e AI për njohjen e emocioneve, por punoni për një kompani që shet teknologjinë e njohjes së emocioneve të IA. A duhet të përdoret IA për zbulimin e emocioneve?

Ideja që mund të lexosh në fytyrën e dikujt atë që ai ndien është thellësisht e gabuar. Nuk mendoj se është e mundur. Unë kam argumentuar se është një nga fushat ku domosdoshmërisht duhet rregullim. Shumica e sistemeve të njohjes së emocioneve sot bazohen në një linjë të të menduarit në psikologjinë e zhvilluar në vitet 1970 – më e rëndësishmja nga Paul Ekman – që thotë se ekzistojnë gjashtë emocione universale që ne të gjithë i tregojmë në fytyrat tona që mund të lexohen duke përdorur teknikat e duhura. Por që nga fillimi ka pasur kthim mbrapa dhe kjo tregon se nuk ka ndonjë korrelacion të besueshëm midis shprehjeve në fytyrë dhe asaj që në të vërtetë po ndiejmë. E megjithatë kemi kompani të teknologjisë që thonë se emocionet mund të kuptohen thjesht duke parë videot e fytyrave të njerëzve. Ne madje po e shohim këtë të integruar në sistemet e softuerit të makinave.

Çfarë keni parasysh kur thoni se duhet të përqendrohemi më pak në etikën e inteligjencës artificiale dhe më shumë te pushteti?

Etika është e nevojshme, por jo e mjaftueshme. Më të dobishme janë pyetje të tilla si, kush përfiton dhe kush dëmtohet nga sistemi IA? Dhe a e vë pushtetin në duart e atyre që janë tashmë të pushtetshëm? Ajo që ne shohim herë pas here, nga njohja e fytyrës tek gjurmimi dhe mbikëqyrja në vendet e punës, është që këto sisteme po fuqizojnë institucione tashmë të fuqishme – korporata, ushtri dhe polici.

Çfarë na duhet që t’i bëjmë gjërat më mirë?

Regjime rregullatore shumë më të forta dhe përgjegjësi më të madhe rreth asaj se si ndërtohen të programet e përpunimit të të dhënave. Gjithashtu ne na duhen zëra të ndryshëm në këto debate – përfshirë njerëzit që po shohin dhe jetojnë me dobësitë e këtyre sistemeve. Na duhet një ripërtëritje e politikave refuzuese për të sfiduar narrativën se, vetëm për shkak se një teknologji mund të ndërtohet, ajo duhet të vihet në funksion.

Jeni optimiste për këtë?

Kam shpresa konkrete. Këtë prill, BE prodhoi draftin e parë të rregulloreve për inteligjencën artificiale. Australia sapo ka lëshuar udhëzime të reja për rregullimin e saj. Ka vrima që duhen mbyllur – por ne tani kemi filluar të kuptojmë se këto mjete kanë nevojë për mbrojtje shumë më të fortë. Mua më jep shpresë puna e aktivistëve që kërkojnë ndryshimin.

Studiuesi i etikës së inteligjencës artificiale, Timnit Gebru, u detyrua të largohej nga Google në fund të vitit të kaluar pasi drejtuesit e kritikuan punën e tij kërkimore. Cila është e ardhmja për kritikën e drejtuar nga industria?

Mënyra si Google e trajtoi Timnit ka sjellë tronditje, si në industri, ashtu edhe në qarqet akademike. Lajmi i mirë është se nuk kemi parë heshtje; në vend të kësaj, Timnit dhe zëra të tjerë të fuqishëm kanë vazhduar të flasin dhe të nxisin për një qasje më të drejtë për hartimin dhe vendosjen e sistemeve teknike. Një element kryesor është të sigurojmë që studiuesit brenda industrisë mund të botojnë pa ndërhyrje të korporatave dhe të nxisin të njëjtën liri akademike që universitetet kërkojnë të arrihet.