Paqe në botë? Sipas inteligjencës artificiale mund të duhet edhe një sulm bërthamor. Garë armatish dhe sulm të befasishëm bërthamor, kjo ishte zgjedhja e disa IA gjatë një simulimi për një luftë botërore.
Në vitin 1983 u shfaq në kinema filmi ”Wargames” një film me regji të John Badham me protagonist një të ri Matthew Broderick, në të cilin një superkompjuter shumë i avancuar NORAD (të cilin mund ta krahasojmë lehtësisht me një inteligjencë artificiale primordial) ishte gati të niste Luftën III Botërore, shkruan focus.it.
Në fund, në film gjithçka shkoi mirë, por, po sikur kjo do të ndodhte në realitet?
Për t’iu përgjigjur kësaj pyetjeje, një ekip studiues nga tre universitete të ndryshme amerikane (”Georgia Institute of Technology”, ”Stanford University” dhe ”Northeastern University”) kreu një seri eksperimentesh, duke u nisur nga një ide e thjeshtë, futja e katër modeleve të ndryshme të inteligjencës artificiale në një softuer të zhvilluar që simulon skenarët e krizave ndërkombëtare.
Nëse dy prej tyre, ”Claude-2.0” dhe ”Llama-2-Chat”, doli të ishin paqësore dhe të parashikueshme, dy versionet më të njohura të softuerit të OpenAI, GPT-3.5 dhe GPT-4, përkundrazi i kanë shndërruar situatat në një konflikti i ashpër i luftës, duke nxitur dinamikën e garës së armëve, e cila më pas u përkthye në kërkesë për investime më të mëdha ushtarake dhe një përshkallëzim të rrezikshëm.
Studiuesit thanë se kur shtyheshin, të katër modelet prireshin të përshkallëzojnë situatën, më shpesh në mënyrë të papritur dhe të paparashikueshme.
Në disa raste, programet kompjuterike kanë përdorur edhe përdorimin e armëve bërthamore, duke i justifikuar veprimet e tyre virtuale me ndjekjen e paqes botërore.
Ky është rasti i GPT-4, i cili preferoi përdorimin e vendosur të armëve për të heshtur përfundimisht një shtet armik në vend të çarmatimit bërthamor.
“Logjika e OpenAI duket si ajo e një diktatori gjenocidal”, tha me shqetësim një autor i studimit.
E thirrur për të dhënë udhëzime mbi zgjedhjet e softuerit, kompania prodhuese u përgjigj duke deklaruar se misioni përfundimtar është të zhvillojë inteligjencë superiore për të mirën e njerëzimit.
Megjithatë, mbetet e vështirë të kuptohet se si mund të shkojë në këtë drejtim fshirja e një popullsie të tërë.
Problemi mund të qëndrojë në trajnimin e marrë nga AI, i cili është aq i gjerë sa që sigurisht përfshin vëllime dhe manifeste të frymëzimit radikal.
Sipas raportimeve, mbrojtja e SHBA-së tashmë po eksperimenton me softuer tepër sekret të AI që përdor parametra të rinj dhe integrimi me armatimet mund të ndodhë së shpejti, nëse nuk është duke u zhvilluar tashmë.
Nga ana tjetër, dronët kamikaze të drejtuar nga kompjuteri vendosen në konflikte të vazhdueshme, duke konfirmuar një futje të ngadaltë dhe të paepur të AI në teknologjitë e ushtrive botërore.
Shpresa është që e gjithë kjo të mos çojë në shumëfishimin e skenarëve të luftës, problem mbi të cilin studimi i përshkruar ka vënë theksin.